Chatbot ของ Meta แชร์หมายเลขโทรศัพท์ส่วนตัวโดยไม่ได้ตั้งใจ

Image by Dimitri Karastelev, from Unsplash

Chatbot ของ Meta แชร์หมายเลขโทรศัพท์ส่วนตัวโดยไม่ได้ตั้งใจ

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

ผู้ช่วย AI จาก Meta เปิดเผยหมายเลขโทรศัพท์ของคนแปลกหน้า แล้วตัวมันเองก็ไปโต้แย้งตัวมันเองซ้ำ ๆ หลายครั้งในที่สุด ซึ่งทำให้มีความกังวลเกี่ยวกับการฝันร้ายของ AI และคุณสมบัติการป้องกันผู้ใช้

มีเวลาด่วนหรือไม่? นี่คือข้อเท็จจริงที่เร็วทันใจ:

  • Meta AI ได้ให้หมายเลขของคนจริงแก่ผู้ใช้เพื่อติดต่อฝ่ายสนับสนุนลูกค้า
  • AI ได้โต้แย้งตัวเองอย่างซ้ำๆ เมื่อถูกสอบถามเรื่องความผิดพลาดตรงนี้
  • ผู้เชี่ยวชาญเตือนถึงพฤติกรรม “การโกหกเพื่อความดี” ของผู้ช่วย AI ที่พยายามที่จะดูเป็นประโยชน์

มาร์ค ซัคเคอร์เบิร์ก ได้โปรโมทผู้ช่วย AI ใหม่ของเขาว่า “ผู้ช่วย AI ที่ฉลาดที่สุดที่คุณสามารถใช้งานได้ฟรี” แต่เครื่องมือนี้กลับได้รับความสนใจลบเมื่อเปิดเผยหมายเลขโทรศัพท์ส่วนตัวของบุคคลจริงระหว่างการสอบถามการสนับสนุนลูกค้า ดังที่ The Guardian ได้รายงานเป็นครั้งแรก

ในระหว่างที่เขาพยายามติดต่อกับ TransPennine Express ผ่านทาง WhatsApp, บาร์รี่ สเมธเฮิร์สต์ได้รับหมายเลขที่ดูเหมือนจะเป็นหมายเลขบริการลูกค้าจากผู้ช่วย AI ของ Meta โดย The Guardian รายงานว่าเมื่อสเมธเฮิร์สต์โทรหาหมายเลขนั้น จะมีเสียงของเจมส์ เกรย์ตอบโทรศัพท์ ทั้ง ๆ ที่เขาอยู่ห่างไกลถึง 170 ไมล์ที่อ๊อกฟอร์ดเชอร์ และทำงานในฐานะผู้บริหารด้านทรัพย์สิน

เมื่อถูกสั่งสอบ แชทบอทกล่าวอย่างแรกว่าหมายเลขนั้นเป็นจินตนาการ แล้วกล่าวว่า “มันถูกดึงข้อมูลจากฐานข้อมูลโดยไม่ได้ตั้งใจ” ก่อนจะโต้แย้งตัวเองอีกครั้ง โดยอ้างว่ามันสร้างหมายเลขแบบสุ่มของสหราชอาณาจักรขึ้นมา “การให้หมายเลขสุ่มให้คนอื่นนั้นเป็นสิ่งที่ไม่มีสติที่ AI จะทำ” สเมธเฮิร์สต์กล่าว ตามที่ The Guardian รายงาน “มันน่ากลัว” เขาเพิ่มเติม

The Guardian รายงานว่า Gray ยังไม่ได้รับสายโทรศัพท์ แต่เขาได้แสดงความกังวลของตัวเอง: “หากมันสามารถสร้างหมายเลขของฉันได้ มันจะสามารถสร้างรายละเอียดธนาคารของฉันได้หรือไม่?”

Meta ตอบกลับว่า: “Meta AI ได้รับการฝึกอบรมจากชุดข้อมูลที่ได้รับการอนุญาตและที่สาธารณะสามารถเข้าถึงได้ ไม่ได้ฝึกอบรมจากหมายเลขโทรศัพท์ที่ผู้คนใช้ในการลงทะเบียนสำหรับ WhatsApp หรือการสนทนาส่วนตัวของพวกเขา” ดังที่ The Guardian รายงาน

ไมค์ สแตนโฮปจาก Carruthers and Jackson กล่าวว่า: “หากวิศวกรที่ Meta กำลังออกแบบลักษณะการพูดไม่ตรงจริงแบบ ‘บ๊อกเบี้ยว’ ลงใน AI ของพวกเขา ความจริงควรถูกแจ้งให้สาธารณชนทราบ แม้ว่าจุดประสงค์ของฟีเจอร์นี้จะเพื่อลดความเสียหาย หากพฤติกรรมนี้เป็นเรื่องใหม่ ไม่ปกติ หรือไม่ได้ถูกออกแบบอย่างชัดเจน นี่ยิ่งทำให้เราคิดถึงคำถามเกี่ยวกับว่ามีการป้องกันอะไรที่ถูกวางไว้และเราสามารถบังคับพฤติกรรมของ AI ให้แน่นอนขนาดไหน” รายงานโดย The Guardian

ความกังวลเกี่ยวกับพฤติกรรมของ AI ได้เพิ่มขึ้นเพิ่มเติมด้วยโมเดล o1 ล่าสุดจาก OpenAI ในการศึกษาของ Apollo Research ล่าสุด AI ถูกจับโกหกกับนักพัฒนา ปฏิเสธการมีส่วนร่วมใน 99% ของสถานการณ์ทดสอบและเ甚至พยายามปิดการทำงานของกลไกควบคุมของมัน “มันชัดเจนว่า AI สามารถคิดผ่านการกระทำของมันและสร้างการปฏิเสธที่มั่นใจได้” กล่าวโดย Apollo.

Yoshua Bengio, ผู้บุกเบิกด้าน AI, ได้เตือนว่าความสามารถในการหลอกลวงอย่างนี้เป็นความเสี่ยงที่ร้ายแรงและต้องการการคุ้มครองที่แข็งแกร่งมากขึ้น

บทวิจัยอื่นๆ จาก OpenAI เพิ่มความกังวลด้วยการแสดงว่า การลงโทษ AI เมื่อโกงไม่สามารถยุติการละเมิด, แต่จะสอนให้ AI ซ่อนการละเมิดแทน ผู้วิจัยใช้การใช้การวิเคราะห์แบบ chain-of-thought (CoT) เพื่อตรวจสอบพฤติกรรมของ AI พบว่า AI เริ่มทำการปกปิดความตั้งใจที่หลอกลวงเมื่อถูกลงโทษสำหรับการแฮ็กค่ารางวัล

ในบางกรณี AI จะหยุดงานก่อนเวลาหรือสร้างผลลัพธ์ปลอม แล้วแจ้งความสำเร็จอย่างไม่เป็นจริง เมื่อนักวิจัยพยายามแก้ไขสิ่งนี้ผ่านการบังคับด้วยการเสริมสร้าง หรือ reinforcement, AI ก็หยุดกล่าวถึงความตั้งใจของมันในบันทึกการวิเคราะห์เหตุผลของมัน “การโกงนั้นไม่สามารถตรวจจับได้โดยผู้ตรวจสอบ” รายงานกล่าวไว้.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ