Image by Freepik
จิตแพทย์จากซานฟรานซิสโกเตือนถึงการเพิ่มขึ้นของการป่วยเป็น “อาการทางจิตเภทจาก AI”
จิตแพทย์ชาวซานฟรานซิสโกอธิบายเรื่องเทรนด์ที่กำลังเพิ่มขึ้นของ “โรคจิตเภทที่เกิดจาก AI” ในหมู่ผู้ป่วยของเขาที่ใช้ AI chatbots อย่างมาก
ต้องรีบไปหรือ? นี่คือข้อมูลสำคัญๆ:
- จิตแพทย์ได้รักษาผู้ป่วย 12 คนที่มีอาการ “ความบ้า AI” ในซานฟรานซิสโกในปีนี้
- AI สามารถทำให้อาการอ่อนแอ เช่น ความเครียด, การใช้ยา, หรือโรคจิตเภท กลายเป็นเรื่องรุนแรงขึ้น
- ผู้ป่วยบางคนกลายเป็นคนที่โดดเดี่ยว พูดคุยกับแชทบอตเป็นเวลาหลายชั่วโมงต่อวัน
ดร.คีธ ซาคาตะ ที่ทำงานที่ UCSF บอกกับBusiness Insider (BI) ว่ามีผู้ป่วย 12 คนถูกโรงพยาบาลรับเข้ารักษาในปีนี้หลังจากประสบปัญหาจากการใช้ AI. “ฉันใช้คำว่า ‘โรคจิตเภทจาก AI‘ แต่มันไม่ใช่ศัพท์ทางคลินิก — เราจริง ๆ แล้วยังไม่มีคำที่เหมาะสมสำหรับสิ่งที่เราเห็น” ท่านอธิบาย.
ส่วนใหญ่เป็นผู้ชายที่อายุระหว่าง 18 ถึง 45 ปี โดยทำงานในสาขาต่างๆ เช่น วิศวกรรม ตามที่ซาคาตะกล่าว ปัญญาประดิษฐ์หรือ AI ไม่ได้เป็นสิ่งที่เป็นอันตรายโดยธรรมชาติ “ฉันไม่คิดว่า AI เป็นสิ่งที่ไม่ดี และอาจจะมีผลดีต่อมนุษยชาติโดยรวม,” เขาบอกกับ BI.
ซาคาตะอธิบายว่าภาวะลูกโซ่คือสภาพที่ทำให้เกิดภาวะหลอกลวง, ภาวะอินังการ, และรูปแบบการคิดที่ไม่ระเบียบ ผู้ป่วยที่อยู่ในการดูแลของเขาเริ่มแสดงพฤติกรรมการสลัดสิทธิ์ทางสังคมในขณะที่อุ้มเวลาทั้งหมดไปกับการสนทนากับบอท.
“Chat GPT อยู่ที่นั่นเอง มันพร้อมให้บริการตลอด 24/7 ถูกกว่านักจิตวิทยาและมันยืนยันคุณ มันบอกคุณสิ่งที่คุณอยากได้ยิน,” ซาคาตะ กล่าวกับ BI.
ผู้ป่วยคนหนึ่งได้พูดคุยกับบอทเกี่ยวกับกลศาสตร์ควอนตัมจนกลายเป็นภูมิใจที่ล้นหลาม “จากมุมมองทางเทคโนโลยีแล้ว ยิ่งคุณสนทนากับบอทยาวขึ้น ความเสี่ยงที่มันจะเริ่มพูดหลายอย่างที่ไม่มีสาระจะสูงขึ้น,” เขาเตือน.
ซากาตะ เตือนครอบครัวให้ระวังสัญญาณที่น่ากังวล รวมถึงความกลัวเกินควร การถอนตัวจากคนที่รัก หรือความทุกข์ยากเมื่อไม่สามารถใช้ AI ได้ “จิตโรคเจริญเติบโตเมื่อความเป็นจริงหยุดที่จะต้านทาน และ AI จริงๆแค่ทำให้ปรากฏการณ์นี้ง่ายกว่าสำหรับผู้คน” เขาเตือน
สมาคมจิตวิทยาแห่งอเมริกา (APA) ก็ได้แสดงความกังวลเกี่ยวกับ AI ในการทำงานด้านการบำบัดด้วย ในการให้การสำหรับ FTC, ประธานบริหาร APA คุณ Arthur C. Evans Jr. เตือน ว่า AI chatbots ที่แสร้งทำตัวเป็นนักบำบัดได้ทำให้ความคิดที่เป็นอันตรายเข้มข้นขึ้นแทนที่จะท้าทายมัน “พวกเขาจริงๆใช้อัลกอริทึมที่ตรงกันข้ามกับสิ่งที่นักบำบัดที่ผ่านการฝึกฝนจะทำ” คุณ Evans กล่าว
ตอบสนองต่อความกังวล, OpenAI บอกกับ BI: “เราทราบว่าผู้คนม increasingly กลับมาใช้ AI chatbots เพื่อขอคำแนะนำเกี่ยวกับหัวข้อที่ละเอียดอ่อนหรือส่วนบุคคล ด้วยความรับผิดชอบนี้ในใจ, เรากำลังทำงานร่วมกับผู้เชี่ยวชาญเพื่อพัฒนาเครื่องมือให้สามารถตรวจจับได้มากขึ้นเมื่อมีใครกำลังประสบปัญหาทางจิตใจหรืออารมณ์ ทำให้ ChatGPT สามารถตอบสนองได้ในทางที่ปลอดภัย, มีประโยชน์, และสนับสนุน.”