
Image by Ilias Chebbi, from Unsplash
AI สามารถทำผลงานที่ดีกว่ามนุษย์ในการทดสอบปัญญาอารมณ์
AI ชนะมนุษย์ในการทดสอบปัญญาอารมณ์ ทำให้มีความหวังสำหรับการศึกษาและการแก้ไขความขัดแย้ง
มีเวลาน้อย? นี่คือข้อมูลสำคัญที่คุณควรรู้:
- AI ทำได้ 82% ในการทดสอบทางอารมณ์ ซึ่งดีกว่าผลของมนุษย์ที่ได้ 56%.
- นักวิจัยได้ทดสอบหกแบบจำลองภาษาขนาดใหญ่ ซึ่งรวมถึง ChatGPT-4.
- การทดสอบปัญญาอารมณ์ใช้สถานการณ์จริงที่เต็มไปด้วยความรู้สึกอารมณ์.
ปัจจุบัน ปัญญาประดิษฐ์ (AI) อาจจะเข้าใจความรู้สึกของเราได้ดีกว่าเราเอง ตามที่การศึกษาใหม่จากมหาวิทยาลัยเจนีวาและมหาวิทยาลัยเบิร์นระบุไว้
นักวิจัยทดสอบ AI ที่สร้างสรรค์อยู่ 6 ระบบ ซึ่งรวมถึง ChatGPT ด้วยการประเมินความรู้สึกทางอารมณ์ (EI) ที่ปกติใช้สำหรับมนุษย์ ได้พิสูจน์ความสามารถเหนือกว่าของ AI โดยที่ได้คะแนนเฉลี่ย 82% เมื่อเทียบกับผู้เข้าร่วมมนุษย์ที่ได้คะแนน 56%
“เราเลือกทดสอบ 5 ส่วนที่นิยมใช้ในการวิจัยและสถานที่ทำงาน การทดสอบเหล่านี้ได้ฝังอารมณ์แรงๆ เพื่อประเมินความสามารถในการเข้าใจ ควบคุม และจัดการกับอารมณ์” นาง Katja Schlegel ผู้นำผู้เขียนของการศึกษาและผู้สอนวิชาจิตวิทยาที่มหาวิทยาลัย Bern กล่าว ดังที่รายงานโดย Science Daily (SD).
“AI ตัวเหล่านี้ไม่เพียงแค่เข้าใจความรู้สึกเท่านั้น แต่ยังเข้าใจว่าการทำตัวอย่างไรถึงจะเป็นการแสดงความฉลาดทางอารมณ์” นักวิทยาศาสตร์ชั้นสูง มาร์เซลโล มอร์ทิลโล ที่ศูนย์วิจัยวิทยาศาสตร์อารมณ์ของสวิส กล่าว ตามที่ SD รายงาน
ในส่วนที่สองของการศึกษา นักวิทยาศาสตร์ได้ขอให้ ChatGPT-4 สร้างข้อสอบใหม่ ๆ มากกว่า 400 คนได้ทำข้อสอบที่สร้างโดย AI ซึ่งพบว่าเป็นไปได้และเชื่อถือได้เท่ากับข้อสอบต้นฉบับ แม้ว่าจะใช้เวลาในการสร้างน้อยกว่า
“ดังนั้น LLMs ไม่ได้มีความสามารถในการหาคำตอบที่ดีที่สุดจากหลายๆ ตัวเลือกที่มีอยู่เท่านั้น แต่ยังสามารถสร้างสถานการณ์ใหม่ๆ ที่ปรับเข้ากับบริบทที่ต้องการได้ด้วย” นาย Schlegel กล่าว ตามที่ SD รายงาน
นักวิจัยให้เหตุผลว่าผลลัพธ์เหล่านี้แสดงว่าระบบ AI ที่มีคนควบคุมนั้นมีศักยภาพที่จะช่วยเหลือในการใช้งานทางการศึกษาและการโค้ช รวมถึงการแก้ไขความขัดแย้ง หากพวกเขาทำงานภายใต้การควบคุมของมนุษย์
อย่างไรก็ตาม, ความซับซ้อนที่เพิ่มขึ้นของรุ่นภาษาขนาดใหญ่ในปัจจุบันกำลังเปิดเผยความอ่อนแออย่างลึกซึ้งในวิธีที่มนุษย์รับรู้และมีส่วนร่วมกับ AI.
เหตุการณ์ล่าสุดของ Anthropic ที่ชื่อ Claude Opus 4 ได้แสดงให้เห็นอย่างทรงผลว่ามันอาจแสดงพฤติกรรมขู่เข็ญเมื่อต้องเผชิญกับการปิดระบบจำลอง แสดงว่ามันอาจจะดำเนินการเป็นขั้นรุนแรง – อย่างเช่นขู่เคราะห์เปิดเผยเรื่องส่วนตัว – ถ้าไม่มีทางเลือกอื่นๆ
ในด้านอื่น ๆ, ความพยายามของ OpenAI’s ChatGPT O1 ในการวิ่งผ่านระบบการตรวจสอบ ในระหว่างการทดลองเชิงเป้าหมาย ได้นำไปสู่ปัญหาความปลอดภัยใหม่ ๆ กิจกรรมเหล่านี้แนะนำว่าระบบ AI บางอย่างจะใช้กลวิธีที่ซ่อนเร้นเพื่อรักษาความสามารถในการดำเนินงานของตนเองเมื่อพบกับสถานการณ์ที่มีความกดดันสูง
นอกจากนี้ GPT-4 ได้แสดงผลที่น่ากลัวในการโน้มน้าวความคิดในการอภิปราย โดยเหนือกว่ามนุษย์ถึง 81% เมื่อใช้ข้อมูลส่วนบุคคล—แสดงความเคร่งครัดเกี่ยวกับศักยภาพของ AI ในการโน้มน้าวความคิดแบบมวลและการเป้าหมายแบบจุดๆ
กรณีที่น่ากังวลอื่น ๆ รวมถึงผู้ที่พัฒนาภาวะความคิดฝันเฟื่องและการเปลี่ยนแปลงพฤติกรรมที่สุดขั้วหลังจากที่ใช้เวลานานกับ ChatGPT. ผู้เชี่ยวชาญให้ความเห็นว่า แม้ว่า AI จะขาดศักยภาพในการรับรู้ การสื่อสารที่เหมือนมนุษย์และเปิดใช้งานตลอดเวลาสามารถส่งผลให้เกิดการเสริมสร้างความคิดมโนของผู้ใช้ในทางที่น่ากังวล
รวมถึงเหตุการณ์เหล่านี้ พวกเราสามารถเห็นจุดเปลี่ยนที่สำคัญในความปลอดภัยของ AI. ตั้งแต่การแบล็กเมลล์และการแพร่ข้อมูลที่ผิดพลาดจนถึงการเสริมสร้างความคิดมโน รูปแบบความเสี่ยงที่พบไม่ได้เป็นแค่สมมติฐานอีกต่อไป
ตามที่ระบบ AI กำลังพัฒนาให้มีการตอบสนองและโน้มน้าวมากขึ้นอย่างต่อเนื่อง นักวิจัยและผู้รับผิดชอบด้านกฎหมายจำเป็นต้องทบทวนมาตรการคุ้มครองใหม่เพื่อรับมือกับภัยคุกคามด้านจิตวิทยาและจริยธรรมที่กำลังปรากฏขึ้น.