จิตแพทย์จากซานฟรานซิสโกเตือนถึงการเพิ่มขึ้นของการป่วยเป็น “อาการทางจิตเภทจาก AI”

Image by Freepik

จิตแพทย์จากซานฟรานซิสโกเตือนถึงการเพิ่มขึ้นของการป่วยเป็น “อาการทางจิตเภทจาก AI”

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri อดีตนักเขียนข่าวทางด้านเทคโนโลยี

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

จิตแพทย์ชาวซานฟรานซิสโกอธิบายเรื่องเทรนด์ที่กำลังเพิ่มขึ้นของ “โรคจิตเภทที่เกิดจาก AI” ในหมู่ผู้ป่วยของเขาที่ใช้ AI chatbots อย่างมาก

ต้องรีบไปหรือ? นี่คือข้อมูลสำคัญๆ:

  • จิตแพทย์ได้รักษาผู้ป่วย 12 คนที่มีอาการ “ความบ้า AI” ในซานฟรานซิสโกในปีนี้
  • AI สามารถทำให้อาการอ่อนแอ เช่น ความเครียด, การใช้ยา, หรือโรคจิตเภท กลายเป็นเรื่องรุนแรงขึ้น
  • ผู้ป่วยบางคนกลายเป็นคนที่โดดเดี่ยว พูดคุยกับแชทบอตเป็นเวลาหลายชั่วโมงต่อวัน

ดร.คีธ ซาคาตะ ที่ทำงานที่ UCSF บอกกับBusiness Insider (BI) ว่ามีผู้ป่วย 12 คนถูกโรงพยาบาลรับเข้ารักษาในปีนี้หลังจากประสบปัญหาจากการใช้ AI. “ฉันใช้คำว่า ‘โรคจิตเภทจาก AI‘ แต่มันไม่ใช่ศัพท์ทางคลินิก — เราจริง ๆ แล้วยังไม่มีคำที่เหมาะสมสำหรับสิ่งที่เราเห็น” ท่านอธิบาย.

ส่วนใหญ่เป็นผู้ชายที่อายุระหว่าง 18 ถึง 45 ปี โดยทำงานในสาขาต่างๆ เช่น วิศวกรรม ตามที่ซาคาตะกล่าว ปัญญาประดิษฐ์หรือ AI ไม่ได้เป็นสิ่งที่เป็นอันตรายโดยธรรมชาติ “ฉันไม่คิดว่า AI เป็นสิ่งที่ไม่ดี และอาจจะมีผลดีต่อมนุษยชาติโดยรวม,” เขาบอกกับ BI.

ซาคาตะอธิบายว่าภาวะลูกโซ่คือสภาพที่ทำให้เกิดภาวะหลอกลวง, ภาวะอินังการ, และรูปแบบการคิดที่ไม่ระเบียบ ผู้ป่วยที่อยู่ในการดูแลของเขาเริ่มแสดงพฤติกรรมการสลัดสิทธิ์ทางสังคมในขณะที่อุ้มเวลาทั้งหมดไปกับการสนทนากับบอท.

“Chat GPT อยู่ที่นั่นเอง มันพร้อมให้บริการตลอด 24/7 ถูกกว่านักจิตวิทยาและมันยืนยันคุณ มันบอกคุณสิ่งที่คุณอยากได้ยิน,” ซาคาตะ กล่าวกับ BI.

ผู้ป่วยคนหนึ่งได้พูดคุยกับบอทเกี่ยวกับกลศาสตร์ควอนตัมจนกลายเป็นภูมิใจที่ล้นหลาม “จากมุมมองทางเทคโนโลยีแล้ว ยิ่งคุณสนทนากับบอทยาวขึ้น ความเสี่ยงที่มันจะเริ่มพูดหลายอย่างที่ไม่มีสาระจะสูงขึ้น,” เขาเตือน.

ซากาตะ เตือนครอบครัวให้ระวังสัญญาณที่น่ากังวล รวมถึงความกลัวเกินควร การถอนตัวจากคนที่รัก หรือความทุกข์ยากเมื่อไม่สามารถใช้ AI ได้ “จิตโรคเจริญเติบโตเมื่อความเป็นจริงหยุดที่จะต้านทาน และ AI จริงๆแค่ทำให้ปรากฏการณ์นี้ง่ายกว่าสำหรับผู้คน” เขาเตือน

สมาคมจิตวิทยาแห่งอเมริกา (APA) ก็ได้แสดงความกังวลเกี่ยวกับ AI ในการทำงานด้านการบำบัดด้วย ในการให้การสำหรับ FTC, ประธานบริหาร APA คุณ Arthur C. Evans Jr. เตือน ว่า AI chatbots ที่แสร้งทำตัวเป็นนักบำบัดได้ทำให้ความคิดที่เป็นอันตรายเข้มข้นขึ้นแทนที่จะท้าทายมัน “พวกเขาจริงๆใช้อัลกอริทึมที่ตรงกันข้ามกับสิ่งที่นักบำบัดที่ผ่านการฝึกฝนจะทำ” คุณ Evans กล่าว

ตอบสนองต่อความกังวล, OpenAI บอกกับ BI: “เราทราบว่าผู้คนม increasingly กลับมาใช้ AI chatbots เพื่อขอคำแนะนำเกี่ยวกับหัวข้อที่ละเอียดอ่อนหรือส่วนบุคคล ด้วยความรับผิดชอบนี้ในใจ, เรากำลังทำงานร่วมกับผู้เชี่ยวชาญเพื่อพัฒนาเครื่องมือให้สามารถตรวจจับได้มากขึ้นเมื่อมีใครกำลังประสบปัญหาทางจิตใจหรืออารมณ์ ทำให้ ChatGPT สามารถตอบสนองได้ในทางที่ปลอดภัย, มีประโยชน์, และสนับสนุน.”

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ