Психотерапевтка каже, що її не дивує, чому люди звертаються до онлайн-чатботів зі штучним інтелектом для отримання психологічної підтримки, але попереджає — це може мати «катастрофічні» наслідки.
33-річна докторка Кейт Вогл — ліцензована клінічна психологиня з десятирічним досвідом роботи. На початку місяця психолог Гарві Ліберман у колонці для The New York Times написав, що «ChatGPT лячно ефективний» у терапії.
Докторка Кейт із цим не погоджується і переконана, що жоден ШІ-бот не здатен замінити роботу психотерапевта. Вона розуміє, чому люди хочуть використовувати ШІ як форму терапії — передусім через високу вартість послуг.
«Розумію це бажання. Психотерапія дорога, і потрібна сміливість, щоб відкритися незнайомій людині. Вартість, логістика, вразливість на старті — не дивно, що багато хто обирає дешевший і анонімний “варіант”», — пояснює докторка Кейт.
«Але небезпеки варіюються від легких до катастрофічних. Від невинного, на перший погляд, підкріплення власних упереджень під маскою “особистісного зростання”, до трагічного — коли людину можуть підштовхнути до завдання шкоди собі чи іншим».
Докторка Кейт наголошує, що терапія — це не просто поради, а стосунки між людьми. Психотерапевт помічає те, що не сказано вголос: інтонацію, паузи, мову тіла, тонкі зміни емоцій. Він може емоційно “співналаштовуватись” з пацієнтом у момент кризи. ChatGPT цього робити не здатен.
Ще одна проблема — ШІ не підзвітний жодній ліцензійній раді, як це є у терапевтів. Якщо він дасть шкідливу пораду, не буде жодних наслідків, і немає юридичної конфіденційності — особисті дані не захищені.
«Він не здатен працювати з вами у реальному часі, не знає, коли достатньо просто підтримати, а коли — і як — кинути виклик для розвитку. Бо він не людина», — каже докторка Кейт.
Докторка Кейт пробувала ставити ChatGPT психологічні запитання. Іноді він формулював влучні питання чи помічав певну тему, але в інших випадках просто беззастережно погоджувався з усім, що вона казала. Це може бути небезпечним — залежно від проблеми, з якою звертається людина.
Психотерапевтка визнає, що має чимало занепокоєнь щодо заміни живої терапії штучним інтелектом. Але про втрату роботи вона не хвилюється: «Після майже десяти років як терапевт і з власного досвіду як клієнтки я знаю, що ChatGPT не може і не замінить справжні терапевтичні стосунки».
У правилах користування сервісом компанія прямо зазначає: