
Image generated with OpenAI
ความคิดเห็น: โมเดล AI คือ “สรรพสัตว์” ที่ลึกลับ แม้ผู้สร้างของพวกเขายังไม่เข้าใจอย่างแท้จริง
การศึกษาล่าสุดของ Anthropic เกี่ยวกับการทำงานของโมเดล Claude 3.5 Haiku มีการเปิดเผยที่ทำให้เกิดการระดมพลังและการรู้ในการเข้าใจวิธีการดำเนินงานของเทคโนโลยี AI ที่ขั้นสูง แต่สิ่งที่พวกเขาหมายถึงเมื่อพวกเขาว่า LLM เป็น “สิ่งมีชีวิต” ที่ “คิด” คืออะไร?
ไม่กี่วันที่ผ่านมา, Anthropic ได้เผยแพร่สองเอกสาร ที่มีการวิจัยที่ทำให้เกิดการระดมพลังเกี่ยวกับการทำงานของ Large Language Models (LLMs) ถึงแม้ว่าการพัฒนาทางเทคนิคจะน่าสนใจและเกี่ยวข้อง สิ่งที่เรียกความสนใจของฉันมากที่สุดคือคำศัพท์ที่ใช้โดยผู้เชี่ยวชาญ AI.
ในงานวิจัย เรื่องชีววิทยาของโมเดลภาษาขนาดใหญ่ นักวิจัยเปรียบเสมือนว่าตนเองเป็นนักชีววิทยาที่ศึกษา “สิ่งมีชีวิตที่ซับซ้อน” ซึ่งได้วิวัฒนาการมาจากพันล้านปีที่ผ่านมา.
“อย่างเดียวกัน โมเดลภาษาถูกสร้างขึ้นโดยอัลกอริทึมการฝึกฝนที่ง่ายแต่ถูกออกแบบโดยมนุษย์ แต่กลไกที่เกิดจากอัลกอริทึมเหล่านี้มีความซับซ้อนอย่างมาก” นักวิทยาศาสตร์เขียนไว้.
ในหลายปีที่ผ่านมา, โมเดล AI ได้พัฒนาขึ้นอย่างมาก และเราได้สังเกตการเติบโตอย่างรวดเร็วของมันในหลายเดือนที่ผ่านมา พวกเราได้เห็น ChatGPT วิวัฒนาการจากรูปแบบที่ใช้เพียงข้อความเท่านั้นไปสู่คู่ความพูด และตอนนี้กลายเป็นตัวแทนที่มีหลากหลายมิติที่สามารถสร้างภาพที่น่าตื่นตาตื่นใจในแบบของสตูดิโอจิบลิ ได้ด้วย
แต่, ถ้าหากแนวหน้าโมเดล AI ที่มีอยู่ในปัจจุบันกลายเป็นแบบที่มีสมรรถภาพทางปัญญาที่เป็นนวัตกรรมมากเกินกว่าผู้สร้างของมันเองจะสามารถเข้าใจกระบวนการและระบบที่มันใช้ได้? มีปริศนาหลายอย่างที่มีความเกี่ยวข้องกับเทคโนโลยี AI ที่อาจจะควรรีวิวหรือดำเนินการเข้าในปี 2025
ปริศนากล่องดำที่น่าขนลุกของโมเดล AI
มีการสนทนาหลายรูปแบบเกี่ยวกับการนำ AI มาใช้และความรู้เรื่อง AI รวมถึงวิธีการที่ผู้ที่เข้าใจวิธีการทำงานของโมเดล AI แบบสร้างสรรค์นั้นจะมีแนวโน้มที่จะไม่ถือ แชทบอท เป็น “เพื่อน” หรือแอปพลิเคชัน “มหัศจรรย์” ของพวกเขา อย่างไรก็ตาม มีการโต้เถียงอีกหนึ่งที่เกิดขึ้นระหว่างผู้เชี่ยวชาญและผู้ที่คุ้นเคยกับเทคโนโลยีมากขึ้น – เกี่ยวกับความเปรียบเทียบหรือการพิจารณา LLM เป็นสร้างสรรค์ที่เป็นอิสระ สำหรับสิ่งสุดท้ายนี้ มีส่วนผสมพิเศษ ปริศนาที่เรียกว่า “ปริศนากล่องดำ AI” ที่เล่นบทบาทสำคัญในการสนทนา
ระบบการเรียนรู้ที่ลึกถูกฝึกเพื่อรู้จักและรับรู้ส่วนประกอบและแนวโน้มในทางที่คล้ายกับมนุษย์ ในทำนองเดียวกันกับที่เราสอนให้เด็กเข้าใจรูปแบบและกำหนดคำเฉพาะเจาะจงให้กับวัตถุต่างๆ LLM ได้รับการฝึกให้สร้างสรรค์การเชื่อมต่อที่ไม่ซ้ำกันและสร้างเครือข่ายที่มีความซับซ้อนมากขึ้นเมื่อเวลาผ่านไป
ซามีร์ ราวัชเดะ, ศาสตราจารย์สาขาวิศวกรรมไฟฟ้าและคอมพิวเตอร์, เชี่ยวชาญในเรื่องของปัญญาประดิษฐ์และอธิบายว่าเหมือนกับเมื่อเราศึกษาเกี่ยวกับปัญญาของมนุษย์, มันเกือบที่จะเป็นไปไม่ได้ที่จะเห็นว่าระบบการเรียนรู้ที่ลึกล้ำทำการตัดสินใจและสรุปผลอย่างไร นี่คือสิ่งที่ผู้เชี่ยวชาญเรียกว่า “ปัญหากล่องดำ”.
โมเดล AI ท้าทายความเข้าใจของมนุษย์
การศึกษาล่าสุดของ Anthropic ได้ชี้แจงถึงสถานการณ์ของกล่องดำ AI โดยอธิบายว่าโมเดลของมัน “คิด” อย่างไรในบางสถานการณ์ที่เคยคลุมเครือหรือผิดพลาดอย่างสิ้นเชิง แม้ว่าการศึกษาจะอาศัยโมเดล Claude 3.5 Haiku เป็นหลัก, แต่มันให้ผู้เชี่ยวชาญสามารถพัฒนาเครื่องมือและวิเคราะห์ลักษณะที่คล้ายกันบนโมเดล AI อื่น ๆ ได้
“การเข้าใจธรรมชาติของปัญญาประเภทนี้เป็นการท้าทายทางวิทยาศาสตร์อย่างลึกซึ้ง ซึ่งมีศักยภาพในการเปลี่ยนแปลงความเข้าใจของเราเกี่ยวกับความหมายของคำว่า ‘คิด'” นั้นเป็นสิ่งที่เอกสารที่นักวิจัยของ Anthropic ได้แชร์ไว้.
อย่างไรก็ตาม คำว่า “คิด” ที่ถูกกำหนดให้กับเทคโนโลยี AI นั้นกลายเป็นสิ่งที่ทำให้บางผู้เชี่ยวชาญในอุตสาหกรรมรู้สึกไม่พอใจ และเป็นส่วนหนึ่งของการวิจารณ์ในสารวัดผล ผู้ใช้Reddit ได้อธิบายเหตุผลที่ทำให้กลุ่มคนหนึ่งรู้สึกไม่พอใจว่า “มีการทำให้มนุษย์มีรูปร่างในบทความทั้งหมด ซึ่งทำให้งานดูเบลอ เช่น มันใช้คำว่า ‘คิด’ ตอนที่ควรจะพูดว่า ‘คำนวณ’ เรากำลังพูดถึงซอฟต์แวร์คอมพิวเตอร์ ไม่ใช่สมองทางชีวภาพ”
ในขณะที่คำที่ “มนุษย์หล่อมาก” ช่วยให้คนที่ไม่มีความรู้ทางเทคนิคเข้าใจรูปแบบ AI ได้ดีขึ้นและสร้างการอภิปรายในชุมชน แต่ความจริงคือ ไม่ว่าเราจะพูดว่า “คำนวณ” หรือ “คิด” ความท้าทายที่เหมือนกันยังคงอยู่: เรายังไม่มีความเข้าใจอย่างเต็มที่หรือความโปร่งใสที่สมบูรณ์เกี่ยวกับวิธีการทำงานของ LLMs.
ความคาดหวังจากรูปแบบ AI ชั้นสูงในอนาคตใกล้
คุณนึกภาพได้ไหมว่าคุณจะมองข้ามการมีอยู่ของเทคโนโลยี AI ชั้นสูงเช่น ChatGPT, DeepSeek, Perplexity, หรือ Claude—ในปัจจุบันหรือในอนาคตใกล้? ทุกสิ่งทุกอย่างชี้ไปที่ว่าไม่มีทางย้อนกลับแล้ว AI สร้างสรรค์และเหตุผลลักษณะนี้ได้เปลี่ยนแปลงวิถีชีวิตประจำวันของเราเเล้ว และพวกเขาจะยังคงพัฒนาต่อไป
เกือบทุกวันที่ WizCase เรามีการรายงานเรื่องใหม่ ๆ ในอุตสาหกรรม – รูปแบบ AI ใหม่, เครื่องมือ AI ใหม่, บริษัท AI ใหม่ – ที่มีศักยภาพในการสร้างผลกระทบอย่างใหญ่ในสังคมของเรา ความคิดเกี่ยวกับการพักผ่อนเพื่อทำความเข้าใจดีขึ้นเกี่ยวกับรูปแบบที่สมบูรณ์แบบและวิธีการทำงานของพวกเขา – หรือแม้แต่การช้าลงเล็กน้อย – ดูเหมือนจะเป็นไปไม่ได้ เมื่อพิจารณาถึงความเร็วในการแข่งขันAIและการมีส่วนร่วมของรัฐบาลและบริษัทที่มีอิทธิพลมากที่สุดในโลก
“รูปแบบ AI มีอิทธิพลที่เพิ่มขึ้นต่อวิถีชีวิตและการทำงานของเรา เราต้องเข้าใจพวกเขาอย่างดีเพื่อให้แน่ใจว่าผลกระทบของพวกเขาเป็นบวก” บทความของ Anthropic กล่าว แม้ว่ามันจะดูเหมือนเป็นไปไม่ได้ก็ตาม แต่นักวิจัยยังคงมีความคิดบวก: “เราเชื่อว่าผลลัพธ์ที่เราได้ที่นี่ และเส้นทางแห่งความก้าวหน้าที่พวกเขาสร้างขึ้น เป็นหลักฐานที่น่าตื่นเต้นว่าเราสามารถยืนหนึ่งในการเผชิญกับความท้าทายนี้”
แต่การค้นพบเหล่านี้จะเคลื่อนไหวได้เร็วขนาดไหน? บทความก็ให้ข้อมูลว่าผลลัพธ์เหล่านี้ครอบคลุมเพียงบางพื้นที่และกรณีที่เฉพาะเจาะจงเท่านั้น และไม่สามารถสร้างข้อสรุปที่แก่นขึ้นได้ ดังนั้น คงไม่ได้เร็วพอนัก
ในขณะที่นักกฎหมายเรียกใช้มาตรการเช่น EU AI Act, เพื่อการขอความโปร่งใสมากขึ้น ซึ่งดึงดูดการกล่าวหาและการวิพากษ์วิจารณ์จากบริษัทเทคโนโลยีใหญ่ๆ อ้างว่าสร้างความหน่วงในความคืบหน้า โมเดล AI ที่มีอำนาจยังคงพัฒนาต่อไป
ในฐานะสังคม เราต้องพยายามหาจุดสมดุลระหว่างการเพิ่มความเข้าใจเกี่ยวกับวิธีการทำงานของเทคโนโลยีเหล่านี้ และการนำมาใช้ในทางที่สร้างประโยชน์และความก้าวหน้าที่มีความหมายกับชุมชนของเรา สามารถทำได้หรือไม่? ความคิดเกี่ยวกับการแค่สวดมนต์หรือหวังว่า “สิ่งมีชีวิต” เหล่านี้จะยังคง “มีจริยธรรม” และ “ดี” ไม่ได้ดูเหมือนจะไกลเท่าไหร่ในตอนนี้