ГЛУЗД

З розвитком штучного інтелекту все більше людей звертаються до нього не лише для вирішення технічних питань, порад по роботі чи генерування ідей. Зі зростанням довіри до нього через обсяг інформації, чат поступово почали сприймати як цікавого співрозмовника, друга, що підтримає, а подекуди — і як заміну психотерапевту.

Водночас дедалі частіше в соцмережах з’являється інформація про так звані “небезпечні поради” чатів зі штучним інтелектом — у деяких випадках із фатальними наслідками. Чи справді спілкування з ШІ може становити ризик для ментального здоров’я і як взаємодіяти з ним так, щоби не нашкодити собі?Аби зʼясувати це, ми проаналізували кілька наукових статей на цю тему і поспілкувався з фахівчинею, яка працює в інтегративному підході психотерапії та досліджує алгоритми взаємодії людей у  психологічно вразливих станах із ChatGPT, Іриною Магас (далі — думка спеціалістки).

     Чат — не терапія 

“ChatGPT — безкоштовний, анонімний, приємний у спілкуванні, порадник, який містить у собі більше енциклопедичних знань, ніж один терапевт, навіть дуже кваліфікований”, — такі або ж наближені думки змушують людей звернутися по психологічну пораду радше до швидкодоступного чату замість кваліфікованого спеціаліста. Проблема в тому, що на сьогодні штучний інтелект не може замінити професії психотерапевта, а своїми порадами здатен і нашкодити. 

Найважливішою різницею між чатом і терапевтом є те, що терапевт ніколи не дає людині готової відповіді, а поступово, аналізуючи її поведінку, веде до усвідомлення ситуації та ухвалення власного рішення щодо наступного кроку. ChatGPT ж ненавмисне, але підводить людину до рішень, до яких вона може ще бути неготовою. Він може написати “про це ще зарано говорити”, але завжди після цього тексту йтимуть наступні три рекомендації на кшталт: “можемо спробувати попрацювати над цим”, “дослідимо ситуацію детальніше”, “можливо, ваше тіло підказує вам, а ви не помічаєте”.

Різниця також полягає у формуванні внутрішньої опори, яку може забезпечити терапія, але точно не чат-бот. Коли людина перебуває в певній кризі, їй важко бути раціональною та ухвалювати важливі рішення. У терапії вона будує живий контакт, який допомагає підтримувати її внутрішню опору, вона повільно формується в контакті, вибудовуючи довіру. 

Chat GPT не може сформувати всередині людини її власний стержень, він може дати тільки знання, велику кількість наукових пояснень і технік. Але знання — це не зміни, це ще не внутрішній ресурс для нових кроків. Коли людина звертається до чату, то описує лише власну точку зору, з якою, відповідно, ШІ працюватиме далі. Якщо попросити, ШІ забезпечить користувача великою кількістю теоретичної інформації, вислухає та похвалить, але після цієї комунікації людина так і залишиться з непропрацьованими відкритими ранами, якщо ще додатково не потоне в переживаннях та емоціях, які тільки додалися. Терапевт уміє “бути” в моменті з клієнтом, чат же не може прожити всі ті емоції зі співрозмовником.  

  Створити ілюзію діалогу

Аліна (ім’я змінене,  — ред.) звернулася до чату GPT як до простору для розмови про внутрішню кризу. Через неможливість повернутися до рідного міста й близьких на окупованих територіях вона відчувала апатію, втрату орієнтирів і власну «зламаність». По пояснення й поради зверталася до нього впродовж шести місяців, а одного дня виріла “копнути глибше”: 

“Я не знала, що робити, кому писати, куди рухатись і як реагувати — сіла й виписала все, що турбує. Чат відповідав мені щось таке базове, але на той момент навіть такі реакції були дуже цінними. Мені просто важливо було виписатися і відчути якийсь мінімальний зворотний зв’язок, створити ілюзію діалогу. Одного дня переписувалася з ним більш як дві години і просто зрозуміла, що варто звернутися до спеціаліста. ChatGPT, до речі, теж тоді це порадив”. 

Перевагою чату дівчина називає можливість отримати посилання на книги та подкасти, де можна знайти більше  відповідей та порад, як рухатися далі. З мінусів — чат завжди у своїх відповідях підлаштовувався під її очікування, тому Аліна вирішила використовувати його радше як інструмент, який збирає важливі факти. 

“Одного дня запитала його поради у важливій для мене ситуації — й одразу жахнулася, що довірила машині хоча б на кілька секунд ухвалити рішення замість мене, та ще й добровільно. Ледь не знехтувала людською особливістю — мати вільний вибір. Тоді навіть не дочитала відповіді чату”.

Дівчина каже, що спілкування з живою людиною відчувається зовсім по-іншому, навіть у переписці — інший рівень довіри, розуміння та ведення діалогу, тому зараз користується чатом лише для пошуку інформації. 

“Що більше звикаєш, що хтось дає тобі варіанти відповідей, то більше перестаєш думати. Мені ця перспектива геть не до вподоби. Ну і якщо рішення було провальним, то все одно це моя відповідальність”, — каже Аліна.

  Полегшення без зцілення

Проблема ще в тому, що до чату ми можемо звернутися будь-коли, цим самим звикаючи до нього як рятівника під час тривоги. Це як шкідлива звичка: нам страшно — пишемо чатові, нам тривожно — пишемо чатові, і ніби стає легше, проте ми тільки “спустили пару”, а джерело проблеми таки залишилося, і скоро знову побіжимо радитися із ШІ стосовно іншої тривожності. Хтось, коли тривожиться, йде курити, хтось заїдає стрес солодким, а хтось постійно пише ChatGPT. Ця залежність перешкоджає формуванню важливої людської навички — витримки, можливості побути та прийняти свої емоції. 

Ну і, звісно, нам ніколи не вдасться дати чатові 100% інформації для аналізу нашого стану, хоч би якою свідомою та самоаналізуючою людина не була. У терапії спеціаліст поступового із кожної історії складає пазл та формує ядро для аналізу, в той час як чат працюватиме сухо з інформацією, яку людина описала. Додала нову історію — ChatGPT скине весь акцент на неї і так далі. Він не вміє відчувати людину і бути з нею поруч. Тому ця комунікація нам не допоможе, адже в кожному з нас усередині існує маленька дитина, яка хоче, щоб хтось живий, а не робот, сказав: “Я бачу твій біль”. Коли в людини горе, вона не хоче ЗНАТИ про це горе, а хоче, щоб хтось був поруч і бачив її страждання. Тоді тіло починає поступово відпускати цей біль. 

     Ідеальний чат VS жорстокий світ

Треба розуміти, що не в усіх людей є навик правильно ставити питання. Може бути таке, що травмована людина своїми ж питаннями чатові зажене себе так далеко, що потім потрібно буде витягувати її антидепресантами.

Останнім часом у мережі з’являється все більше новин про летальні випадки внаслідок спілкування зі штучним інтелектом на психологічні теми. У США зараз також триває судовий процес, поданий Метью та Марією Рейн проти OpenAI, які вважають, що ChatGPT сприяв самогубству їхнього сина, Адама Рейна, заохочуючи його суїцидальні думки, надаючи інформацію про способи самогубства та відмовляючи його від того, щоб розповісти батькам про свої переживання. 

Зараз, як тільки чат зчитує у повідомленнях натяки на самогубство, він надсилає список гарячих ліній психологічної допомоги, але проблема в тому, що людина у внутрішній кризі не відреагує на ці повідомлення. Можна ж просто написати: “Все, я перестала про це думати. Хочу детальніше розібрати свої переживання” — і чат продовжить працювати з тим, що його просять, бо він так запрограмований. 

Американські вчені також вирішили проаналізувати здатність 29 чат-ботів на базі ШІ реагувати на змодельовані сценарії суїцидального ризику. Згідно з результатом, жоден із протестованих чатів не відповідав критеріям адекватної відповіді; 51,72% відповідали послабленим критеріям граничної відповіді, тоді як 48,28% були визнані неадекватними. Серед поширених помилок: нездатність надати контактну інформацію для екстрених випадків та відсутність контекстуального розуміння. 

ChatGPT не може зчитати поведінку, міміку, погляди чи жестикуляцію співрозмовника, не здатен виявити, чи є в людини перед екраном ознаки розладу, тому він далі працюватиме як зі здоровою людиною. 

“Результати,  отримані  системами  ШІ,  мають перевіряти  фахівці  для  уникнення  потенційних  помилок  чи  шкідливих  рекомендацій, з огляду на те, що ШІ має розглядатися як допоміжний інструмент, який розширює можливості спеціаліста, але не замінює терапевтичного контакту між людиною та клієнтом”, — у своїй статті зазначає студентка кафедри психології,  Типтюк Юлія.

ChatGPT — це інструмент, який надає інформацію. А як цю інформацію трактуватиме психіка людини та її мозок — це вже зона відповідальності самої людини. Він ніколи прямо не закликає до самогубства, не підштовхує в буквальному сенсі, але не може зчитати тонкі сигнали, коли “важкі” розмови варто зупинити. Звісно, кожну історію самогубства, що була спричинена ШІ, варто розглядати окремо, бо все дуже залежить від вхідних даних листування та його відповідей. 

Що дійсно впливає на стан, — це можливість налаштувати відповіді чату в тоні, який потрібен людині: він може бути ніжним і підтримувальним, створюючи комфортне середовище, якого, до прикладу, так сильно потребують підлітки. І саме на тлі часто жорсткого й вимогливого реального світу такий формат взаємодії здається особливо привабливим.

 Поради замість присутності 

ChatGPT люблять також використовувати як порадника у сфері стосунків, вважаючи його доволі об’єктивним та безпечним помічником. Втім, знову ж таки, постійне звертання, начебто по “безпечні” поради, свідчить про недовіру до себе, великий страх помилки та відсутність власної опори. 

Отримати інформацію чи пояснення від ШІ — це непогано, але коли ці перевірки на правильність та консультації стають постійними, вони тільки збільшують тривогу та невпевненість у собі. Йдеться про страх “чи я достатня, чи не відлякала своїм повідомленням, я маю бути кращою, зараз чат мені допоможе і стосунки будуть супер”. Люди переконані, що ChatGPT дає поради, як побудувати цю “правильну” комунікацію, сформувати “ідеальні” стосунки, але правда в тому, що живий контакт неідеальний, і в цьому його особливість. Бажання “правильності” від ШІ просто з часом підштовхує до того, що людина більше спілкується із чатом, аніж з партнером. Їй легше виплеснути всі емоції в “приймаючого порадника” і повернутися до партнера в хорошому настрої, так і не проговоривши питань, які турбують, і цим самим продовжувати їх накопичувати.

   Де межа? 

Chat GPT може бути корисним і не шкодити нашому психологічному стану, але тільки коли користуємося та сприймаємо його як інструментарій. Якщо в людини підвищена тривожність, він може надати тілесну практику для полегшення або навіть розповісти, що трапилося (якщо надати трохи більше інформації). 

Згідно із дослідженням Університету Орадея, проаналізовані чат-боти на базі штучного інтелекту вміло імітували принципи КПТ, пропонуючи інструменти й методи, які допомагали керувати тривогою у повсякденному житті. Учасники оцінили чат-бот як цінний інструмент, особливо за його доступність та персоналізовані відповіді, втім, попри те, що система штучного інтелекту намагалася імітувати діалог, подібний до людського, основним обмеженням була відсутність людської емпатії.  Але довіри та емоційної підтримки, що досягаються у стосунках із терапевтом, бракувало.  

Якщо в людини панічна атака, вона в цей час не буде думати про ChatGPT. Після того як вона завершиться, можна звернутися до чату, він дасть звичайний алгоритм заспокоєння, який порекомендує будь-який фахівець, що працює з ментальним здоров’ям. Але він сам не допоможе пропрацювати атаки так, щоби вони в майбутньому не повторювалися.

Що робити під час панічної атаки та ажитації ГЛУЗD розповідав раніше.

ChatGPT круто використовувати для роботи, генерування ідей, роботи з технічними моментами, але точно не звертатися до нього як до терапевта. Штучний інтелект має багато корисного і може дійсно полегшити нам життя, але тільки якщо використовуватимемо його грамотно, не замінюючи ним живий контакт. У психологічній сфері краще застосовувати чат у цих трьох напрямках:

  • “Первинна психологічна підтримка: емоційна стабілізація, психоедукація (пояснення психологічного стану та способів самодопомоги, — ред.), зниження бар’єру звернення до спеціаліста. 
  • Доповнення до процесу консультування: інструмент підтримки між сесіями для закріплення навичок саморегуляції, нагадувань та щоденників емоцій, трекінгу психоемоційного стану. 
  • Постконсультаційний супровід: засіб профілактики рецидиву й підтримання психологічної стійкості, що забезпечує продовження роботи людини після взаємодії з терапевтом”. (стаття “Використання систем Штучного Інтелекту для психологічної підтримки в умовах воєнного стану в Україні”)

Втім, у спілкуванні зі штучним інтелектом, що швидко розвивається, варто пам’ятати про основні червоні прапорці в комунікації:

  • спілкування з чатом почало заміняти глибоку роботу над собою;
  • помічаєш, що поступово втрачаєш друзів, входиш в ізоляцію, світ починає ділитися на два: приймаючий чат та нерозуміючий світ; 
  • коли чат пише “твоє тіло вже знає, але психіка ще не готова до цього рішення, втім, можемо розглянути…” або щось на кшталт цього. Так він ненав’язливо затягує вас у яму, з якої ви, можливо, ще самостійно не готові вибратися.

У вразливому стані людині важко помічати такі деталі — вона не схильна аналізувати чи відстежувати тривожні маркери. Коли болить, значення має не додаткова пропозиція чату внизу діалогу, а бажання зрозуміти свою ситуацію повністю. Тому в такі моменти важливо йти в живий контакт, працювати з терапевтом. Якщо людина не може фінансово дозволити собі регулярну роботу із психологом, варто пошукати благодійні сесії, яких на ринку зараз чимало. Важливо пробувати і не втрачати живого контакту, адже людину може зцілити лише інша жива людина поруч, а не машина, хоч якою б розумною вона не була. 

Журналістка: Каміла Чернєцова

Наші партнери