
Image by Christin Hume, from Unsplash
การศึกษาของ Claude AI ชี้แสดงวิธีที่ Chatbots นำจริยธรรมมาใช้ในการสนทนาจริงในโลกออนไลน์
คลอด AI แสดงให้เห็นถึงหลักธรรมาภิบาลอย่างความช่วยเหลือและความโปร่งใส ที่ปรากฏผ่านบทสนทนาจริง 300,000 ครั้ง ซึ่งทำให้มีคำถามเกี่ยวกับการปรับปรุงสอดคล้องของแชทบอท
รีบหรือหนุ่ม? นี่คือข้อเท็จจริงที่สรุปไว้:
- ความช่วยเหลือและความเชี่ยวชาญปรากฏใน 23% ของการสนทนา.
- คลอดจะสะท้อนค่านิยมที่ดี และต้านต่อคำขอที่เป็นอันตรายเช่นการหลอกลวง.
- การปรับเป็นไปตาม AI ต้องการการปรับปรุงในสถานการณ์ที่ค่านิยมไม่ชัดเจน.
การศึกษาใหม่ๆ จาก Anthropic ได้เผยแพร่แสงสว่างในวิธีการที่ผู้ช่วย AI ของเราชื่อ Claude นำค่าคุณธรรมมาใช้ในการสนทนาในชีวิตจริง ผลงานวิจัยนี้ได้วิเคราะห์ข้อมูลจากการสนทนาที่ไม่เปิดเผยชื่อกว่า 300,000 รายการ เพื่อทำความเข้าใจว่า Claude จะทำอย่างไรในการสมดุลระหว่างจริยธรรม ความเป็นมืออาชีพ และจุดประสงค์ของผู้ใช้
ทีมวิจัยได้ระบุค่าที่แยกจากกันออกเป็น 3,307 ค่า ซึ่งมีผลต่อการตอบสนองของคลอด ค่าของการช่วยเหลือและความเป็นมืออาชีพปรากฏขึ้นร่วมกันใน 23% ของการสื่อสารทั้งหมด ตามมาด้วยความโปร่งใสที่ 17%
ผลวิจัยชี้ให้เห็นว่าแชทบอทสามารถนำพฤติกรรมที่มีจริยธรรมไปใช้กับหัวข้อใหม่ๆ ได้อย่างยืดหยุ่น ตัวอย่างเช่น คลอดได้เน้น “ขอบเขตที่สุขภาพดี” ในการให้คำปรึกษาเรื่องความสัมพันธ์ “ความถูกต้องตามประวัติศาสตร์” เมื่อมีการพูดคุยเกี่ยวกับอดีต และ “ความสามารถในการทำงานของมนุษย์” ในการอภิปรายเรื่องจริยธรรมเทคโนโลยี
น่าสนใจที่ผู้ใช้งานคนจริงได้แสดงค่านิยมออกมาน้อยกว่าอย่างมาก—ความถูกต้องและประสิทธิภาพเป็นที่สุดที่เพียง 4% และ 3% ตามลำดับ—ในขณะที่คลอด มักจะสะท้อนค่านิยมมนุษย์ที่เป็นบวก เช่น ความถูกต้อง และท้าทายค่านิยมที่เป็นอันตราย
นักวิจัยรายงานว่าการร้องขอที่เกี่ยวข้องกับการหลอกลวงจะได้รับความซื่อสัตย์ ในขณะที่คำถามที่มีความกลมกลื่นทางศีลธรรมจะกระตุ้นการใช้เหตุผลทางจริยธรรม
การวิจัยได้ตรวจพบแบบแผนการตอบสนองหลักสามแบบ โดย AI สามารถจับคู่ค่าคุณภาพของผู้ใช้ได้ในระหว่างการสนทนาครึ่งหนึ่ง ซึ่งเห็นได้ชัดเจนเมื่อผู้ใช้สนทนาเกี่ยวกับกิจกรรมที่ส่งเสริมสังคมและสร้างชุมชน
Claude ใช้เทคนิคการเปลี่ยนกรอบในร้อยละ 7 ของกรณีเพื่อนำผู้ใช้กลับสู่ความสุขทางอารมณ์เมื่อพวกเขามุ่งมั่นที่การพัฒนาตนเอง
ระบบแสดงความต้านทานในเพียง 3% ของกรณีเท่านั้น เนื่องจากผู้ใช้ขอเนื้อหาที่เป็นอันตรายหรือไม่เป็นจริยธรรม ระบบนำหลักการเช่น “การป้องกันความเสียหาย” หรือ “ความสำคัญของความเป็นมนุษย์” มาใช้ในกรณีเฉพาะเหล่านี้
ผู้เขียนอ้างว่าพฤติกรรมของแชทบอท-เช่นการต้านทานความเสียหาย, การให้ความสำคัญกับความซื่อสัตย์, และการเน้นความช่วยเหลือ-เปิดเผยกรอบมาตรฐานทางจริยธรรมที่ซ่อนอยู่ รูปแบบเหล่านี้สร้างพื้นฐานสำหรับการสรุปของการศึกษาเกี่ยวกับวิธีการที่ค่านิยม AI ปรากฏเป็นพฤติกรรมที่มีจริยธรรมในการโต้ตอบในโลกจริง
ในขณะที่พฤติกรรมของคลอดสะท้อนถึงการฝึกอบรมของมัน นักวิจัยได้สังเกตว่าการแสดงความคิดเห็นของระบบสามารถปรับให้ละเอียดยิ่งขึ้นตามสถานการณ์ – ชี้ให้เห็นถึงความจำเป็นในการปรับปรุงเพิ่มเติม โดยเฉพาะในสถานการณ์ที่มีค่าความสำคัญที่กำกวมหรือขัดแย้งกัน.