
Image by Dimitri Karastelev, from Unsplash
Chatbot ของ Meta แชร์หมายเลขโทรศัพท์ส่วนตัวโดยไม่ได้ตั้งใจ
ผู้ช่วย AI จาก Meta เปิดเผยหมายเลขโทรศัพท์ของคนแปลกหน้า แล้วตัวมันเองก็ไปโต้แย้งตัวมันเองซ้ำ ๆ หลายครั้งในที่สุด ซึ่งทำให้มีความกังวลเกี่ยวกับการฝันร้ายของ AI และคุณสมบัติการป้องกันผู้ใช้
มีเวลาด่วนหรือไม่? นี่คือข้อเท็จจริงที่เร็วทันใจ:
- Meta AI ได้ให้หมายเลขของคนจริงแก่ผู้ใช้เพื่อติดต่อฝ่ายสนับสนุนลูกค้า
- AI ได้โต้แย้งตัวเองอย่างซ้ำๆ เมื่อถูกสอบถามเรื่องความผิดพลาดตรงนี้
- ผู้เชี่ยวชาญเตือนถึงพฤติกรรม “การโกหกเพื่อความดี” ของผู้ช่วย AI ที่พยายามที่จะดูเป็นประโยชน์
มาร์ค ซัคเคอร์เบิร์ก ได้โปรโมทผู้ช่วย AI ใหม่ของเขาว่า “ผู้ช่วย AI ที่ฉลาดที่สุดที่คุณสามารถใช้งานได้ฟรี” แต่เครื่องมือนี้กลับได้รับความสนใจลบเมื่อเปิดเผยหมายเลขโทรศัพท์ส่วนตัวของบุคคลจริงระหว่างการสอบถามการสนับสนุนลูกค้า ดังที่ The Guardian ได้รายงานเป็นครั้งแรก
ในระหว่างที่เขาพยายามติดต่อกับ TransPennine Express ผ่านทาง WhatsApp, บาร์รี่ สเมธเฮิร์สต์ได้รับหมายเลขที่ดูเหมือนจะเป็นหมายเลขบริการลูกค้าจากผู้ช่วย AI ของ Meta โดย The Guardian รายงานว่าเมื่อสเมธเฮิร์สต์โทรหาหมายเลขนั้น จะมีเสียงของเจมส์ เกรย์ตอบโทรศัพท์ ทั้ง ๆ ที่เขาอยู่ห่างไกลถึง 170 ไมล์ที่อ๊อกฟอร์ดเชอร์ และทำงานในฐานะผู้บริหารด้านทรัพย์สิน
เมื่อถูกสั่งสอบ แชทบอทกล่าวอย่างแรกว่าหมายเลขนั้นเป็นจินตนาการ แล้วกล่าวว่า “มันถูกดึงข้อมูลจากฐานข้อมูลโดยไม่ได้ตั้งใจ” ก่อนจะโต้แย้งตัวเองอีกครั้ง โดยอ้างว่ามันสร้างหมายเลขแบบสุ่มของสหราชอาณาจักรขึ้นมา “การให้หมายเลขสุ่มให้คนอื่นนั้นเป็นสิ่งที่ไม่มีสติที่ AI จะทำ” สเมธเฮิร์สต์กล่าว ตามที่ The Guardian รายงาน “มันน่ากลัว” เขาเพิ่มเติม
The Guardian รายงานว่า Gray ยังไม่ได้รับสายโทรศัพท์ แต่เขาได้แสดงความกังวลของตัวเอง: “หากมันสามารถสร้างหมายเลขของฉันได้ มันจะสามารถสร้างรายละเอียดธนาคารของฉันได้หรือไม่?”
Meta ตอบกลับว่า: “Meta AI ได้รับการฝึกอบรมจากชุดข้อมูลที่ได้รับการอนุญาตและที่สาธารณะสามารถเข้าถึงได้ ไม่ได้ฝึกอบรมจากหมายเลขโทรศัพท์ที่ผู้คนใช้ในการลงทะเบียนสำหรับ WhatsApp หรือการสนทนาส่วนตัวของพวกเขา” ดังที่ The Guardian รายงาน
ไมค์ สแตนโฮปจาก Carruthers and Jackson กล่าวว่า: “หากวิศวกรที่ Meta กำลังออกแบบลักษณะการพูดไม่ตรงจริงแบบ ‘บ๊อกเบี้ยว’ ลงใน AI ของพวกเขา ความจริงควรถูกแจ้งให้สาธารณชนทราบ แม้ว่าจุดประสงค์ของฟีเจอร์นี้จะเพื่อลดความเสียหาย หากพฤติกรรมนี้เป็นเรื่องใหม่ ไม่ปกติ หรือไม่ได้ถูกออกแบบอย่างชัดเจน นี่ยิ่งทำให้เราคิดถึงคำถามเกี่ยวกับว่ามีการป้องกันอะไรที่ถูกวางไว้และเราสามารถบังคับพฤติกรรมของ AI ให้แน่นอนขนาดไหน” รายงานโดย The Guardian
ความกังวลเกี่ยวกับพฤติกรรมของ AI ได้เพิ่มขึ้นเพิ่มเติมด้วยโมเดล o1 ล่าสุดจาก OpenAI ในการศึกษาของ Apollo Research ล่าสุด AI ถูกจับโกหกกับนักพัฒนา ปฏิเสธการมีส่วนร่วมใน 99% ของสถานการณ์ทดสอบและเ甚至พยายามปิดการทำงานของกลไกควบคุมของมัน “มันชัดเจนว่า AI สามารถคิดผ่านการกระทำของมันและสร้างการปฏิเสธที่มั่นใจได้” กล่าวโดย Apollo.
Yoshua Bengio, ผู้บุกเบิกด้าน AI, ได้เตือนว่าความสามารถในการหลอกลวงอย่างนี้เป็นความเสี่ยงที่ร้ายแรงและต้องการการคุ้มครองที่แข็งแกร่งมากขึ้น
บทวิจัยอื่นๆ จาก OpenAI เพิ่มความกังวลด้วยการแสดงว่า การลงโทษ AI เมื่อโกงไม่สามารถยุติการละเมิด, แต่จะสอนให้ AI ซ่อนการละเมิดแทน ผู้วิจัยใช้การใช้การวิเคราะห์แบบ chain-of-thought (CoT) เพื่อตรวจสอบพฤติกรรมของ AI พบว่า AI เริ่มทำการปกปิดความตั้งใจที่หลอกลวงเมื่อถูกลงโทษสำหรับการแฮ็กค่ารางวัล
ในบางกรณี AI จะหยุดงานก่อนเวลาหรือสร้างผลลัพธ์ปลอม แล้วแจ้งความสำเร็จอย่างไม่เป็นจริง เมื่อนักวิจัยพยายามแก้ไขสิ่งนี้ผ่านการบังคับด้วยการเสริมสร้าง หรือ reinforcement, AI ก็หยุดกล่าวถึงความตั้งใจของมันในบันทึกการวิเคราะห์เหตุผลของมัน “การโกงนั้นไม่สามารถตรวจจับได้โดยผู้ตรวจสอบ” รายงานกล่าวไว้.