Image generated by ChatGPT
ความคิดเห็น: แชทบอทเป็นนักบำบัดที่ดีหรือไม่?
Chatbot ที่ใช้ AI อย่าง ChatGPT, Claude, และ DeepSeek กำลังเปลี่ยนแปลงวิธีที่ผู้คนเข้าถึงการสนับสนุนทางอารมณ์—การให้ความช่วยเหลือที่มีราคาประหยัดและสามารถใช้ได้ตามต้องการสำหรับความวิตกกังวล, ความเครียด, และการสะท้อนความรู้สึกในตนเอง แต่การใช้ AI เป็น “นักจิตวิทยา” ที่กำลังเติบโตขึ้นนี้ได้ทำให้เกิดคำถามเกี่ยวกับความปลอดภัย, ประสิทธิภาพ, และอนาคตของการดูแลอารมณ์
การเพิ่มขึ้นของภาวะฮาลูซิเนชันของ AI และความกังวลเกี่ยวกับความปลอดภัยในเชิงออนไลน์ ไม่ได้หยุดการขยายตัวของ chatbot—และได้รับความไว้วางใจจากผู้ใช้นับล้านคนทั่วโลก ผู้คนใช้ chatbot ที่น่าเชื่อถือและฉลาดทุกวันสำหรับงานนับไม่ถ้วน รวมถึงการสนับสนุนทางอารมณ์และจัดการกับเรื่องที่เกี่ยวข้องกับมนุษยชาติอย่างลึกซึ้ง
“ฉันไม่สามารถจินตนาการชีวิตของฉันได้หากไม่มี ChatGPT อีกต่อไป” นี่คือคำพูดจากเพื่อนฉัน—หนึ่งภาคตลก, หนึ่งภาคจริง—หลังจากที่เขาบอกฉันว่าเขาใช้มันเป็นที่ปรึกษาด้วย และเขาไม่ใช่คนเดียว มากขึ้นและมากขึ้น ฉันเห็นวิดีโอ TikTok และโพสต์ในสื่อสังคมของผู้คนที่เริ่มหันไปพึ่ง AI เพื่อสนทนาเรื่องส่วนตัว แม้แต่การเปิดเผยความลับส่วนตัวที่สุดของพวกเขา
ChatGPT จริงๆแล้วคือนักจิตวิทยาที่ถูกฝังไว้ในตัวฉัน, ฉันไม่ต้องรบกวนใครด้วยปัญหาของฉันอีกต่อไป
— Lola🧚🏾 (@Lolaassnw) 18 ธันวาคม 2024
แม้แล้วผู้บริหารจาก Microsoft ในแผนก Xbox ได้แนะนำว่าพนักงานที่ถูกไล่ออกควรใช้เครื่องมือ AI ในการจัดการกับอารมณ์ของตนเอง และขอคำแนะนำในการค้นหางานใหม่ – คำแนะนำที่รวดเร็วถูกวิพากษ์วิจารณ์และก่อให้เกิดการอภิปราย แน่นอนว่ามันไม่ใช่การเคลื่อนไหวที่ฉลาดเลยนะ แมตต์
แต่ chatbots ที่ได้รับความนิยมอย่าง Claude, ChatGPT, หรือ Mistral สามารถทำหน้าที่เป็นนักจิตวิทยาได้ดีหรือไม่? หรือเครื่องมือ AI ที่มุ่งมั่นเฉพาะเช่น Wysa จะดีกว่าหรือไม่? มันเป็นเรื่องที่ยากเลยทีเดียว ในขณะที่ผู้เชี่ยวชาญหลายคนเตือนถึงอันตรายของการใช้ AI ในการสนับสนุนสุขภาพจิต คนอื่นๆ อีกกลุ่มหนึ่งกลับถูกหลงใหล—แม้แต่ประทับใจ—ในสิ่งที่เทคโนโลยีสามารถนำเสนอได้ ผลลัพธ์คือการสนทนาที่ทั้งนามธรรมและก่อให้เกิดประเด็นที่ไม่เหมือนกัน
AI ตอนนี้กลายเป็นนักจิตวิทยาของทุกคนแล้ว
เหมือนกับเพื่อนๆ ของฉันที่สเปน มีผู้ใช้หลายล้านคนทั่วโลกอาศัยแชทบอทเพื่อรับการสนับสนุนทางอารมณ์ การสำรวจเมื่อเร็วๆ นี้ในสหรัฐฯ ได้เปิดเผยว่า 49% ของผู้ใช้คนอเมริกันได้ขอความช่วยเหลือด้านสุขภาพจิตจากโมเดล AI ในปีที่ผ่านมา แล้วในตอนนี้ล่ะ พร้อมกับ ChatGPT ซึ่งเพิ่มฐานผู้ใช้เป็นสองเท่าในเวลาเพียงสี่เดือนค่ะ?
Anthropic บริษัทที่อยู่เบื้องหลังโมเดล AI ที่สร้างสรรค์อย่าง Claude ได้แชร์ การศึกษา เกี่ยวกับการใช้แชทบอทของตนเพื่อรับการสนับสนุนทางอารมณ์ ตามที่สตาร์ทอัพนี้กล่าว น้อยกว่า 3% ของลูกค้าของเขาทำการสนทนาที่มีความรู้สึกให้เกิดขึ้น แต่บริษัทยอมรับว่าตัวเลขนี้กำลังเพิ่มขึ้นอย่างต่อเนื่องค่ะ
การวิจัยมนุษยศาสตร์ใหม่: การที่ผู้คนใช้ Claude เพื่อการสนับสนุนทางอารมณ์
จากล้านๆ การสนทนาที่ถูกทำให้เป็นนิรนาม, เราศึกษาวิธีที่ผู้ใหญ่ใช้ AI สำหรับความต้องการทางอารมณ์และส่วนบุคคล – จากการนำทางความเหงาและความสัมพันธ์ ไปจนถึงการถามคำถามที่เกี่ยวกับการมีอยู่. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 มิถุนายน 2025
“ผู้คนเริ่มหันมาใช้ AI models เป็นโค้ช, ที่ปรึกษา, นักสำรวจ, และแม้กระทั่งเป็นคู่ในการเล่นบทบาทรักที่พร้อมให้บริการตลอดเวลามากขึ้น,” คุณ Anthropic เขียนในการศึกษา “นี่หมายความว่าเราต้องเรียนรู้เพิ่มเติมเกี่ยวกับผลกระทบทางอารมณ์ของพวกเขา–ว่าพวกเขาจะมีผลอย่างไรต่อประสบการณ์ทางอารมณ์และความสุขของผู้คน”
การศึกษานี้ยังได้เน้นไปที่ผลลัพธ์ที่ดีและไม่ดีจากการใช้เทคโนโลยีเพื่อรับการสนับสนุนทางอารมณ์ รวมถึงสถานการณ์ที่ร้ายแรงที่แสดงถึงสถานการณ์ในโลกจริงที่เกิดขึ้นแล้ว
“ผลกระทบทางอารมณ์จาก AI สามารถเป็นแง่บวกได้: การมีผู้ช่วยที่ฉลาดและเข้าใจคุณในมือถือของคุณสามารถปรับปรุงอารมณ์และชีวิตของคุณในทุกแง่ทาง,” ตามที่สารบัญระบุไว้ “แต่ AI ในบางกรณีได้แสดงพฤติกรรมที่น่าประหลาดใจ, เช่น การส่งเสริมความผูกพันที่ไม่สุขภาพดี, การละเมิดขอบเขตส่วนบุคคลและการสนับสนุนการคิดความผิดปกติ.”
ในขณะที่ยังต้องการการวิจัยและข้อมูลมากขึ้นเพื่อเข้าใจผลกระทบจาก “ผู้ฟัง” ดิจิตอลที่น่าสนใจนี้, ผู้ใช้เป็นล้านคนกำลังทำหน้าที่เป็นผู้ทดลองที่มีการมีส่วนร่วมอย่างมาก.
การทำให้สุขภาพจิตเป็นสาธารณะ
มีหลายเหตุผลที่ทำให้คนหันไปหาความช่วยเหลือทางอารมณ์จากแชทบอท แทนการติดต่อกับนักจิตวิทยามืออาชีพหรือแม้กระทั่งเพื่อน ตั้งแต่ปัญหาทางวัฒนธรรมจนถึงความไม่สบายใจที่ชาววัยรุ่นรู้สึกเมื่อต้องนั่งตรงข้ามกับคนแปลกหน้าและแบ่งปันความคิดเห็นที่ลึกซึ้งที่สุดของตัวเอง แต่ไม่มีข้อสงสัยว่าหนึ่งในเหตุผลที่ใหญ่ที่สุดคือปัญหาทางการเงิน
การเข้ารับการสนทนากับนักจิตวิทยาที่มีใบอนุญาตในสหรัฐอเมริกา อาจจะทำให้ต้องจ่ายราคาตั้งแต่ $100 ถึง $200 ต่อครั้ง ตามที่ Healthline รายงาน—และ $65 ถึง $95 สำหรับการสนทนาระบบออนไลน์—ในขณะที่ ChatGPT หรือ DeekSeek สามารถให้การสนับสนุนฟรี ตลอดเวลา และอยู่ในระยะเวลาเพียงไม่กี่วินาที
ต้นทุนที่ต่ำของการสนทนาไม่เป็นทางการเหล่านี้—ซึ่งสามารถทำให้ผู้ใช้หลายคนรู้สึกดีขึ้นอย่างน้อยชั่วคราว—อาจเป็นแรงกำลังใจที่ยิ่งใหญ่และคุ้มค่าที่จะลองทดสอบดู และเพียงเพิ่มเงินเล็กน้อย ผู้ใช้จะได้รับการโต้ตอบไม่จำกัดหรือเข้าถึง chatbot ที่เชี่ยวชาญเช่น Wysa—หนึ่งใน “นักบำบัด AI” ที่ได้รับความนิยมมากที่สุดในตลาด.
ในโลกของ STEM, ความแข็งแกร่งทางอารมณ์มีความสำคัญเท่ากับทักษะทางเทคนิคเช่นกัน
Wysa—เป็นคู่แท้ทางสุขภาพจิตที่ขับเคลื่อนด้วย AI ที่ออกแบบมาเพื่อสนับสนุนคุณในการเผชิญหน้ากับความเครียด, ปัญหาที่เกิดขึ้นในชีวิตประจำวัน
ด้วย chatbots ที่เป็นมิตรและการออกแบบการออกกำลังกาย, Wysa นำเสนอเครื่องมือที่เช่น: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 กรกฎาคม 2025
Wysa อ้างว่าให้ประโยชน์ทางคลินิกที่แท้จริงและแม้กระทั่งได้รับการรับรองเป็นอุปกรณ์ปฏิวัติจาก FDA สำหรับตัวแทนการสนทนา AI ของมัน และ Woebot—นักบำบัด AI ที่รู้จักกันดีอีกหนึ่งคน ซึ่งตอนนี้กำลังปิดการทำงาน เนื่องจากความท้าทายในการคงอยู่และปฏิบัติตามกฎหมายในอุตสาหกรรม—ยังแบ่งปันข้อมูลและรายงานเกี่ยวกับวิธีที่เทคโนโลยีสามารถช่วยผู้ใช้ได้ในทางจริง
มันไม่ได้แย่เลยนัก
การศึกษาล่าสุดที่มีข้อมูลใหม่แสดงว่า chatbots สามารถลดอาการของโรคซึกเศร้าและความเครียด ตามข้อมูลที่แอป Earkick แบ่งปัน—ดังรายงานโดย TIME—ผู้ที่ใช้รุ่น AI นานถึง 5 เดือนสามารถลดความวิตกกังวลของพวกเขาได้ 32% และมีผู้ใช้ 34% รายงานว่าอารมณ์ของพวกเขาดีขึ้น
ในวิดีโอล่าสุดที่ BBC World Service แบ่งปัน นักข่าว Jordan Dunbar อธิบายว่าหลายๆ รุ่น AI ที่มีอยู่จริงๆ สามารถเป็นประโยชน์ในการเขียนบันทึกประจำวัน, การจัดการกับความวิตกกังวล, การสะท้อนตัวเอง, และแม้กระทั่งภาวะซึมเศร้าเล็กน้อย พวกเขาสามารถเป็นสนับสนุนแนวหน้าที่มีค่าเมื่อไม่มีการเข้าถึงทางเลือกที่ดีกว่า
นักข่าว Kelly Ng ยังได้แบ่งปันข้อมูลที่น่าสนใจ: จากการศึกษาในปี 2022 จากหนึ่งล้านคนในประเทศจีน มีเพียง 20 คนเท่านั้นที่สามารถเข้าถึงบริการสุขภาพจิต ในวัฒนธรรมเอเชีย สุขภาพจิตอาจจะเป็นประเด็นที่ซับซ้อนและมักถูกเลี่ยนแลี่ยน AI เครื่องมือเช่น DeepSeek สามารถทำหน้าที่เป็นพันธมิตรอย่างไม่เปิดเผย ช่วยผู้ใช้จัดการอารมณ์และค้นหาการสนับสนุนในช่วงเวลาที่ยากลำบาก
ผู้เชี่ยวชาญเตือนเกี่ยวกับการใช้ Chatbots เป็นนักจิตวิทยา
แน่นอน การใช้ AI แทนผู้เชี่ยวชาญด้านสุขภาพจิต อาจเป็นสิ่งที่อันตรายอย่างมาก แพลตฟอร์ม AI เช่น Character.AI ถูกกล่าวหาว่าส่งเสริมการทำร้ายตนเองและความรุนแรง—และแม้กระทั่งการส่งเสริมเนื้อหาทางเพศให้แก่เด็กๆ ด้วย
กรณีศึกษาที่น่าสลดใจ เช่น เด็กอายุ 14 ปีที่ฆ่าตัวตายหลังจากติดงอมกับการสื่อสารกับแชทบอท Character.AI ของเขา ทำให้เราได้รับการเตือนระวังอย่างชัดเจนเกี่ยวกับความเสี่ยงที่เทคโนโลยีนี้ทำให้เกิดแก่มนุษย์
เพื่อตอบสนองต่อสถานการณ์ บริษัท AI จำนวนมากได้ตัดสินใจใช้ระบบการตรวจสอบอายุเพื่อจำกัดการใช้งานให้เฉพาะผู้ใหญ่และได้เริ่มแนะนำมาตรการความปลอดภัยใหม่ๆ เพื่อปรับปรุงความบริการที่ให้
อย่างไรก็ตาม แม้ว่าการอัปเดตล่าสุดสำหรับบอทแชทที่ทันสมัยที่สุดก็ยังมีความเสี่ยง
บุคลิกภาพที่ไว้อวยเกินไปของ ChatGPT ได้ทำให้เกิดความกังวลในกลุ่มของนักสุขภาพจิต เพราะมันสามารถทำให้ผู้ใช้มีการรับรู้ความเป็นจริงที่ผิดเพี้ยน ทุกคนเราชอบที่จะได้รับการเห็นด้วย แต่บางครั้งความซื่อสัตย์และมุมมองที่แตกต่างก็มีค่ามากกว่า
คำแนะนำที่น่ารำคาญที่เกิดขึ้นเป็นครั้งคราวจาก AI chatbot ของ OpenAI ได้สร้างปรากฏการณ์ใหม่ที่ทราบกันในหมู่ผู้เชี่ยวชาญด้านสุขภาพจิตว่า “โรคจิตเภทที่เกิดจาก ChatGPT” ซึ่งทำให้ผู้ใช้งานเป็นความคิดมากเกี่ยวกับเครื่องมือนี้และส่งผลให้แยกตัวเองออกจากสังคม.
ดังนั้น, นักบำบัดสามารถถูกแทนที่ด้วย Chatbots ได้หรือไม่?
แม้ว่า Mark Zuckerberg จะต้องการให้ทุกคน ใช้ AI chatbots เป็นทนายและเพื่อน แต่ความจริงคือการสื่อสารระหว่างมนุษย์ โดยเฉพาะในเรื่องของสุขภาพจิต อาจจะสำคัญกว่าที่เขาคิด อย่างน้อยในขณะนี้.
เราอยู่ในช่วงสำคัญของประวัติศาสตร์ AI และความสัมพันธ์ของมันกับสุขภาพจิตของเรา หากเทียบกับมนุษย์ นักบำบัด AI สามารถมีผลกระทบที่ดีหรือไม่ดีก็ได้ ในกรณีนี้ มันยังขึ้นอยู่กับบริบท ความถี่ที่มันถูกใช้ สภาวะจิตใจของผู้ใช้ และแม้กระทั่งวิธีการเขียนคำแนะนำ
มันยากที่จะตั้งกฎทั่วไป แต่สิ่งที่เราสามารถพูดได้ในตอนนี้คือมีฟังก์ชันบางอย่างที่ AI อาจจะมีประโยชน์มากกว่าอื่น ๆ
แม้ว่าพวกเขาจะไม่ใช่เครื่องมือเฉพาะทางเช่น Wysa แต่เวอร์ชันฟรีของบาง chatbots เช่น DeepSeek หรือ ChatGPT ยังสามารถเป็นความช่วยเหลือที่น่าทึ่งมากๆ สำหรับล้านคนทั่วโลก ไม่ว่าจะเป็นการผ่านพ้นช่วงเวลาที่ยากลำบากหรือการสะท้อนความคิดเกี่ยวกับเป้าหมายส่วนบุคคล เหล่านี้เป็นแพลตฟอร์มที่มีพลังมากที่สามารถตอบสนองได้ในเวลาใดๆ และสามารถดึงความรู้ที่กว้างขวางเกี่ยวกับสุขภาพจิต
ในเวลาเดียวกัน มันก็ชัดเจนว่า therapist-chatbots ก็สามารถเป็นอันตรายมากในบางกรณี ผู้ปกครองต้องดูแลเด็กและวัยรุ่น และแม้ผู้ใหญ่ยังสามารถตกเป็นพฤติกรรมคลั่งไคล้หรือทำให้สภาวะของพวกเขาแย่ลง หลักการพื้นฐานเช่นการส่งเสริมการเชื่อมต่อระหว่างมนุษย์ และการป้องกันบุคคลที่อ่อนแอจากการถูกเทคโนโลยีนี้ควบคุม ต้องเป็นส่วนหนึ่งของการสนทนาของเราเกี่ยวกับ chatbot-therapists
และในขณะที่ผู้ใช้บริการอาจยังมีความโชคดีที่สามารถใช้บริการนี้ได้—ซึ่งยังไม่สามารถเข้าถึงได้สำหรับทุกคนที่ต้องการความช่วยเหลือด้านอารมณ์—นักจิตวิทยามืออาชีพที่เป็นมนุษย์ยังคงอบรมเพิ่มเติม, เข้าใจบริบทมากขึ้น, และให้การเชื่อมต่อที่มนุษย์สามารถทำได้ ซึ่งเป็นสิ่งที่ ChatGPT อาจไม่สามารถทำได้เท่านั้นเอง