การศึกษาของ Claude AI ชี้แสดงวิธีที่ Chatbots นำจริยธรรมมาใช้ในการสนทนาจริงในโลกออนไลน์

Image by Christin Hume, from Unsplash

การศึกษาของ Claude AI ชี้แสดงวิธีที่ Chatbots นำจริยธรรมมาใช้ในการสนทนาจริงในโลกออนไลน์

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

คลอด AI แสดงให้เห็นถึงหลักธรรมาภิบาลอย่างความช่วยเหลือและความโปร่งใส ที่ปรากฏผ่านบทสนทนาจริง 300,000 ครั้ง ซึ่งทำให้มีคำถามเกี่ยวกับการปรับปรุงสอดคล้องของแชทบอท

รีบหรือหนุ่ม? นี่คือข้อเท็จจริงที่สรุปไว้:

  • ความช่วยเหลือและความเชี่ยวชาญปรากฏใน 23% ของการสนทนา.
  • คลอดจะสะท้อนค่านิยมที่ดี และต้านต่อคำขอที่เป็นอันตรายเช่นการหลอกลวง.
  • การปรับเป็นไปตาม AI ต้องการการปรับปรุงในสถานการณ์ที่ค่านิยมไม่ชัดเจน.

การศึกษาใหม่ๆ จาก Anthropic ได้เผยแพร่แสงสว่างในวิธีการที่ผู้ช่วย AI ของเราชื่อ Claude นำค่าคุณธรรมมาใช้ในการสนทนาในชีวิตจริง ผลงานวิจัยนี้ได้วิเคราะห์ข้อมูลจากการสนทนาที่ไม่เปิดเผยชื่อกว่า 300,000 รายการ เพื่อทำความเข้าใจว่า Claude จะทำอย่างไรในการสมดุลระหว่างจริยธรรม ความเป็นมืออาชีพ และจุดประสงค์ของผู้ใช้

ทีมวิจัยได้ระบุค่าที่แยกจากกันออกเป็น 3,307 ค่า ซึ่งมีผลต่อการตอบสนองของคลอด ค่าของการช่วยเหลือและความเป็นมืออาชีพปรากฏขึ้นร่วมกันใน 23% ของการสื่อสารทั้งหมด ตามมาด้วยความโปร่งใสที่ 17%

ผลวิจัยชี้ให้เห็นว่าแชทบอทสามารถนำพฤติกรรมที่มีจริยธรรมไปใช้กับหัวข้อใหม่ๆ ได้อย่างยืดหยุ่น ตัวอย่างเช่น คลอดได้เน้น “ขอบเขตที่สุขภาพดี” ในการให้คำปรึกษาเรื่องความสัมพันธ์ “ความถูกต้องตามประวัติศาสตร์” เมื่อมีการพูดคุยเกี่ยวกับอดีต และ “ความสามารถในการทำงานของมนุษย์” ในการอภิปรายเรื่องจริยธรรมเทคโนโลยี

น่าสนใจที่ผู้ใช้งานคนจริงได้แสดงค่านิยมออกมาน้อยกว่าอย่างมาก—ความถูกต้องและประสิทธิภาพเป็นที่สุดที่เพียง 4% และ 3% ตามลำดับ—ในขณะที่คลอด มักจะสะท้อนค่านิยมมนุษย์ที่เป็นบวก เช่น ความถูกต้อง และท้าทายค่านิยมที่เป็นอันตราย

นักวิจัยรายงานว่าการร้องขอที่เกี่ยวข้องกับการหลอกลวงจะได้รับความซื่อสัตย์ ในขณะที่คำถามที่มีความกลมกลื่นทางศีลธรรมจะกระตุ้นการใช้เหตุผลทางจริยธรรม

การวิจัยได้ตรวจพบแบบแผนการตอบสนองหลักสามแบบ โดย AI สามารถจับคู่ค่าคุณภาพของผู้ใช้ได้ในระหว่างการสนทนาครึ่งหนึ่ง ซึ่งเห็นได้ชัดเจนเมื่อผู้ใช้สนทนาเกี่ยวกับกิจกรรมที่ส่งเสริมสังคมและสร้างชุมชน

Claude ใช้เทคนิคการเปลี่ยนกรอบในร้อยละ 7 ของกรณีเพื่อนำผู้ใช้กลับสู่ความสุขทางอารมณ์เมื่อพวกเขามุ่งมั่นที่การพัฒนาตนเอง

ระบบแสดงความต้านทานในเพียง 3% ของกรณีเท่านั้น เนื่องจากผู้ใช้ขอเนื้อหาที่เป็นอันตรายหรือไม่เป็นจริยธรรม ระบบนำหลักการเช่น “การป้องกันความเสียหาย” หรือ “ความสำคัญของความเป็นมนุษย์” มาใช้ในกรณีเฉพาะเหล่านี้

ผู้เขียนอ้างว่าพฤติกรรมของแชทบอท-เช่นการต้านทานความเสียหาย, การให้ความสำคัญกับความซื่อสัตย์, และการเน้นความช่วยเหลือ-เปิดเผยกรอบมาตรฐานทางจริยธรรมที่ซ่อนอยู่ รูปแบบเหล่านี้สร้างพื้นฐานสำหรับการสรุปของการศึกษาเกี่ยวกับวิธีการที่ค่านิยม AI ปรากฏเป็นพฤติกรรมที่มีจริยธรรมในการโต้ตอบในโลกจริง

ในขณะที่พฤติกรรมของคลอดสะท้อนถึงการฝึกอบรมของมัน นักวิจัยได้สังเกตว่าการแสดงความคิดเห็นของระบบสามารถปรับให้ละเอียดยิ่งขึ้นตามสถานการณ์ – ชี้ให้เห็นถึงความจำเป็นในการปรับปรุงเพิ่มเติม โดยเฉพาะในสถานการณ์ที่มีค่าความสำคัญที่กำกวมหรือขัดแย้งกัน.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ