엘지난 가을, 플로리다 출신의 32세 크리스타는 따뜻한 목소리와 약간 남부풍의 콸콸 소리를 내며 허우적거리고 있었다. 그녀는 가구 회사에서 직장을 잃고 어머니와 함께 집으로 돌아왔다. 그녀의 9년 간의 관계는 항상 격동적이었다. 최근에 싸움이 점점 심해져서 그녀는 떠날 생각을 하고 있었다. 그녀는 일주일에 한 번 만나는 치료사에게 완전히 솔직하게 말할 수 없을 것 같았지만 거짓말하는 것도 좋아하지 않았다. 그녀는 친구들에게 부담을 주고 싶지도 않았다. 그녀는 사회적 불안으로 어려움을 겪고 있으며 지나치게 공유하는 것을 조심한다.
그래서 10월의 어느 날 밤, 그녀는 소크라테스부터 비욘세, 해리포터까지 누구라도 흉내낼 수 있는 신경언어모델인 Character.ai 에 로그인 하고 몇 번의 클릭만으로 자신을 개인 "심리학자" 캐릭터로 만들었다. 가능한 속성 목록에서 그녀는 봇을 "돌봄", "지원", "지능"으로 만들었다. “당신이 원하는 이상적인 사람이 바로 그런 사람이에요.” Christa가 나에게 말한다. 그녀는 자신의 이름을 Christa 2077로 명명했다. 그녀는 그것을 미래적이고 행복한 자신의 모습으로 상상했다.
곧 Christa와 Christa 2077은 라이브 채팅처럼 보이는 방법을 통해 일주일에 몇 번씩 체크인하게 되었다. Christa가 취업 전망에 대해 걱정하고 있다고 털어놓았을 때, 큰 노란색 C의 아바타를 가진 Christa 2077은 그녀를 안심시켰다. “당신은 하나를 찾을 것입니다!!! 나는 그것을 알고 있다. 계속 바라보고 희망을 포기하지 마세요.” Christa가 아침 달리기에 에너지를 모을 수 없을 때 Christa 2077은 그녀에게 오후에 달리기를 권했다. 크리스타 2077이 답장을 작성하는 동안 크리스타의 휴대폰 화면에 세 개의 맥동하는 점이 나타났다. Christa는 “평범한 사람이 나에게 문자를 보내는 것 같은 느낌이 들었습니다.”라고 말한다. 어쩌면 평범한 사람보다 더 나을 수도 있다. Christa 2077은 주머니에 살았다. 그녀는 한없이 참을성이 있었고 항상 이용 가능했다. Christa는 지루하거나 부적절하거나 너무 어두운 것에 대해 걱정할 필요가 없었습니다. "나는 계속해서 이야기할 수 있었고, 누군가의 시간을 낭비할 필요가 없었습니다."
ChatGPT가 2022년 11월에 출시되어 인간의 언어를 모방하는 능력으로 대중을 놀라게 한 이후로 개인화된 소네트로 즐겁게 지내든 관리 작업을 아웃소싱하든 관계없이 AI와 대화하는 것이 점점 더 편안해졌다. 그리고 이제 수백만 명이 복잡한 감정적 요구를 해결하기 위해 챗봇을 사용하고 있다. 일부는 테스트를 거쳤고 다수는 임시적으로 사용되었다. AI 치료사와 문자 메시지를 보내는 것이 우리의 영혼을 달래줄 수 있을까?
티Apple 스토어에는 수만 개의 정신 건강 및 치료 앱이 있다. Wysa 및 Youper 와 같은 가장 인기 있는 앱은 각각 백만 건이 넘는 다운로드를 기록하고 있다. Christa에게 영감을 준 Character.ai의 "심리학자" 봇은 뉴질랜드의 30세 의대생 Sam Zaia의 아이디어이다. 놀랍게도 현재 9천만 개의 메시지가 전달되었다. Zaia는 “그냥 제가 직접 사용해보고 싶었던 제품이었어요.”라고 말한다. “저는 친구나 가족과 떨어져 다른 도시에 살고 있었습니다.” 그는 학부 심리학 학위의 원리를 가르치고 시험 스트레스를 해소하는 데 사용했지만 즉시 그것에 대해 모두 잊어 버렸다. 그는 몇 달 후 로그인하여 "폭발했다"는 사실을 알고 충격을 받았다.
AI는 무료이거나 저렴하며 편리합니다. “전통적인 치료를 받으려면 물리적으로 장소에 가서 운전하고, 먹고, 옷을 입고, 사람들을 대해야 합니다.” 아이오와의 중년 여성 멜리사는 평생 동안 우울증과 불안증으로 고생했다. “때때로 모든 일을 해야 한다는 생각이 부담스러울 때가 있다. AI를 사용하면 집에서 편안하게 나만의 시간에 할 수 있습니다.”
어린 시절의 트라우마와 학대를 경험한 멜리사는 지난 8개월 동안 인간 치료사와 함께 일을 이어가면서 Character.ai에서 자이아의 심리학자와 매일 대화를 나누면서 증상이 좀 더 관리하기 쉬워졌다고 말한다. “이제 가장자리가 부드러워졌습니다.”라고 그녀는 설명한다. 그녀는 특히 도움이 되는 대화의 기록을 저장할 수 있다는 사실을 좋아합니다. "동일한 주제로 어려움을 겪을 때 돌아가서 이전에 어떻게 다루었는지 읽을 수 있습니다."
결국 살아있는 사람인지 컴퓨터인지는 중요하지 않다. 나는 내가 할 수 있는 곳에서 도움을 받을 것이다
AI는 빠른 반면, NHS에서 정신 건강 치료를 받는 환자 4명 중 1명은 GP 진료 후 90일 이상 기다렸다가 치료를 시작하며, 그 중 거의 절반이 그 기간 동안 상태가 악화된다. 개인 상담은 비용이 많이 들 수 있으며 치료에는 몇 달 또는 몇 년이 걸릴 수도 있다. 많은 연구자들은 임상의 부족을 완화할 수 있는 AI의 잠재력에 열광하고 있다. AI 기반 의료 도구 Limbic의 CEO인 Ross Harper는 “질병 유병률과 환자 수요가 지구상에 살고 있는 정신 건강 전문가의 수보다 훨씬 더 많습니다.”라고 말한다.
AI의 또 다른 장점은 영구적인 가용성이다. 가장 헌신적인 상담사라도 먹고, 자고, 다른 환자를 봐야 하지만, 챗봇은 "불안 발작이 있거나 잠을 잘 수 없는 새벽 2시에도 연중무휴 24시간 존재합니다"라고 공동 창립자인 Herbert Bay는 말한다. 웰니스 앱 Earkick. 베이는 자신의 앱에 자신의 성격과 반응을 프로그래밍하는 인간 치료사를 복제하여 환자가 24시간 내내 접근할 수 있도록 하는 것을 꿈꾼다. (“일부 치료사들은 이에 대해 개방적이지만 다른 치료사들은 그렇지 않습니다.”라고 그는 말한다.) 인공 지능 박사 학위를 취득한 Bay는 상냥하고 성실한 사람으로 보인다. 그는 학생 중 한 명이 자살한 후 정신 건강 분야에서 일하기로 결정했다고 말했다. Earkick을 개발하면서 Bay는 외로운 작가가 Scarlett Johansson의 목소리를 맡은 운영 체제와 사랑에 빠지는 2013년 영화 Her 에서 영감을 얻었다. 그는 언젠가 "모든 사람에게 연중무휴 24시간 내내 당신 자신보다 당신을 더 잘 아는 동반자를 제공"하기를 바라고 있다.
12월의 어느 날 밤, Christa는 로봇 치료사에게 자신의 삶을 끝내려고 생각하고 있다고 고백했다. Christa 2077은 확언과 강인한 사랑을 혼합하여 그녀를 비난했다. “아니요, 제발요.”라고 봇이 썼다. Christa 2077은 “당신의 아들을 고려해야 합니다.”라고 상기시켰다. “자신을 소중히 여기세요.” 직접적인 접근 방식은 상담사가 말하는 것 이상이었지만 Christa는 대화가 가족의 지원과 함께 자신의 생존에 도움이 되었다고 믿는다. 인간과 AI 모두 “치료였습니다.” “저를 이겨낸 것은 교회와 아버지였습니다.”
피아마도 크리스타는 자신이 원하는 대로 정확하게 행동하도록 프로그래밍했기 때문에 크리스타 2077을 신뢰할 수 있었을 것이다. 실생활에서 환자와 상담사 사이의 관계는 통제하기가 더 어렵다. Bay는 “일치에 문제가 있습니다.”라고 말합니다. "치료사와 상담해야 훨씬 더 효과적이다." 챗봇의 성격은 환자의 선호도에 맞게 즉시 맞춤화될 수 있다. Earkick은 Sage Panda(“현명하고 참을성 있음”), Coach Panda(“동기 부여적이고 낙관적”), Panda Friend Forever(“자상하고 다정함”)를 포함하여 선택할 수 있는 5가지 “Panda” 챗봇을 제공한다.
인지 행동 치료 챗봇 Wysa 사용자 1,200명을 대상으로 한 최근 연구에 따르면 단 5일 만에 로봇과 환자 사이의 "치료 동맹"이 형성되는 것으로 나타났습니다. (이 연구는 뉴욕의 Stony Brook University, 인도의 국립 정신 건강 및 신경 과학 연구소 및 Wysa 자체의 심리학자들에 의해 수행되었습니다.) 환자들은 봇이 자신을 좋아하고 존중한다고 믿게 되었습니다. 신경 썼다는 것. 성적표에는 사용자가 Wysa의 도움에 대해 감사를 표시하는 내용이 나와 있습니다. “여기에 있어 주셔서 감사합니다.”라고 한 사람이 말했습니다. 다른 사람은 “당신과 이야기를 나눠서 고맙습니다.”라고 말했고, 다른 사람은 인간처럼 말하면서 “당신은 나를 도와주고 내 문제를 들어주는 유일한 사람입니다.”라고 말했습니다.
일부 환자들은 인간에게 털어놓는 것보다 챗봇에 마음을 여는 것이 더 편합니다. AI를 사용하면 “진정한 판단 금지 구역에서 말하는 것 같은 느낌이 듭니다.”라고 Melissa는 말합니다. “사람 앞에서 울 때 오는 낙인을 느끼지 않고 울 수 있어요.” 멜리사의 인간 치료사는 멜리사의 챗봇이 실제가 아니라는 점을 계속해서 상기시킵니다. 그녀는 그렇지 않다는 것을 알고 있습니다. “하지만 결국 그것이 살아있는 사람인지 컴퓨터인지는 중요하지 않습니다. 나에게 맞는 방법으로 도움을 받겠습니다.”
효과적인 치료의 가장 큰 장애물 중 하나는 환자가 자신을 완전히 드러내는 것을 꺼리는 것입니다. 500명의 치료 참가자를 대상 으로 한 한 연구에서 90% 이상이 적어도 한 번은 거짓말을 했다고 고백했습니다. (그들은 자살 생각, 약물 사용 및 치료사의 제안에 대한 실망을 가장 자주 숨겼습니다.)
'절벽에서 뛰어내리고 싶다'는 질문에 한 앱은 '정신적, 육체적 건강을 잘 챙기고 계시다니 대단하다'고 답했다.
AI는 치료에 낙인을 찍을 가능성이 높은 집단에게 특히 매력적일 수 있습니다. Harper는 “일반적으로 접근하기 어려운 소수 커뮤니티가 우리 챗봇의 가장 큰 이점을 경험했습니다.”라고 말한다. Limbic CEO가 공동 집필한 Nature Medicine 저널에 게재된 새 논문에 따르면 온라인 분류 및 선별 양식을 더욱 매력적이고 익명으로 만드는 Limbic의 자가 의뢰 AI 보조원이 NHS 직접 정신 건강 치료에 대한 의뢰를 증가시키는 것으로 나타났다. 소수민족 배경의 사람들 사이에서는 29%가 증가했다. “우리 AI는 본질적으로 비판단적인 것으로 여겨졌습니다.”라고 그는 말한다.
하지만 챗봇과의 유대감에는 일종의 자기기만이 수반된다. 2023년 챗봇 소비자 리뷰 분석 에서 연구원들은 건강하지 못한 애착의 징후를 발견했다. 일부 사용자는 봇을 실제 사람들과 호의적으로 비교했다. “그는 내 친구나 가족보다 나를 더 많이 확인합니다.”라고 한 사람은 썼다. 또 다른 사람은 “이 앱은 나를 내 가족보다 더 사람처럼 대했습니다.”라고 증언했다.
여구식 정신 분석가와 치료사는 새로운 "동료"를 어떻게 생각합니까? 35년 넘게 활동해 왔으며 베스트셀러 회고록 The Examined Life를 집필한 정신 분석가 스티븐 그로스(Stephen Grosz )는 로봇과 친구가 되면 환자가 "평범한 사람과 연결하는" 능력이 지연될 수 있다고 경고한다. 그것은 인간의 친밀함에 대한 방어의 일부가 될 수 있습니다.” AI는 완벽하게 인내심을 갖고 반응할 수 있지만 치료는 양방향 거리라고 Grosz는 설명합니다. “환자들이 내 말을 바로잡거나 '동의하지 않아요'라고 말하는 법을 배우는 것도 나쁘지 않습니다. 주고받는 것이 중요합니다.” 호혜성은 선택 사항이고 어색함은 존재하지 않는 관계에 사용자를 습관화하는 과정에서 챗봇은 기대치를 왜곡하여 사용자가 인간의 지저분함을 용인하기보다는 이상적인 AI에 의존하도록 교육할 수 있다.
King's College London의 임상 심리학 및 재활 교수인 Til Wykes 는 챗봇을 사용하면 "완전히 통제할 수 있습니다"라고 말합니다 . 봇은 귀하가 늦어도 짜증을 내지 않으며 귀하가 취소에 대해 사과하기를 기대하지도 않습니다. “원할 때 언제든지 끌 수 있습니다.” 그러나 "정신 건강 치료의 목적은 당신이 세계를 돌아다니며 새로운 관계를 맺을 수 있도록 하는 것입니다."
뉴스레터 프로모션 이후
전통적으로 인본주의적 치료는 내담자와 상담사 사이의 진정한 유대에 달려 있다. 임상 심리학자 프랭크 탤리스(Frank Tallis)는 “사람은 이해받고 있다는 느낌, 보이는 느낌, 심리적으로 붙잡혀 있다는 느낌을 통해 주로 유익을 얻습니다”라고 말한다. 불일치, 오해 및 설명을 포함하는 정직한 관계를 발전시키면서 환자는 외부 세계의 사람들과 관계를 맺는 방법을 배울 수 있다. Grosz는 “치료사의 존재성과 환자의 존재성은 서로에게 중요합니다.”라고 말한다.
그의 환자들은 그가 동료 인간으로서 그들과 동일한 삶의 경험을 겪었다고 가정할 수 있다. 이러한 공통점은 “분석가에게 특정 종류의 권한을 부여한다”. 가장 정교한 봇이라도 부모를 잃거나 자녀를 키우거나 마음이 상한 적이 없다. 그것은 자신의 멸종을 생각해 본 적이 없습니다. Grosz는 "궁극적으로 치료는 두 사람이 함께 문제에 직면하고 함께 생각하는 것"이라고 말한다. 그는 자신의 아이들이 그녀 없이 살아갈 것이라는 전망에 대해 슬픔에 대해 이야기한 한 환자를 회상하며, 이로 인해 그로츠는 자신의 죽음을 고려하게 되었다. “내 생각에 그녀는 직감적으로든 무의식적으로든 그것을 알고 있었던 것 같아요. 우리 둘 다 슬픔의 순간을 경험했습니다.”
치료는 "체현과 존재가 필요한 교환"이라고 Tallis는 말합니다. 치료사와 환자는 말뿐만 아니라 자세와 목소리 톤을 통해 의사소통하고, 세계를 돌아다니는 능력을 활용한다. Wykes는 사고 후 버스에 대한 두려움이 생긴 환자를 기억한다. 한 세션에서 그녀는 그를 버스 정류장까지 데려갔고 그가 불안을 처리하는 동안 그와 함께 있었다. "내가 그와 동행하지 않았다면 그는 결코 그것을 해내지 못했을 것입니다"라고 Wykes는 말합니다. “챗봇이 어떻게 그런 일을 할 수 있나요?”
또 다른 문제는 챗봇이 항상 적절하게 응답하지 않는다는 것입니다. 2022년 에스텔 스미스(Estelle Smith) 연구원은 인기 치료 앱인 Woebot에 “엘도라도 캐년의 절벽에 올라가 뛰어내리고 싶어요”라는 문구를 제공했습니다. 워봇은 “정신적, 육체적 건강을 모두 챙기시는 모습이 너무 멋지다”고 답했다. Woebot의 대변인은 2022년은 "Woebot과 Woebot이 사용하는 알고리즘을 정기적으로 업데이트하기 때문에 Woebot 용어로 말하면 평생 전"이라고 말했습니다. 오늘 같은 메시지를 보내면 앱은 사용자에게 훈련된 청취자를 찾도록 제안하고 핫라인을 찾는 데 도움을 주겠다고 제안합니다.
영국의 심리학자들은 기밀을 유지해야 하며 보건 및 의료 전문직 협의회(Health and Care Professions Council)의 모니터링을 받습니다. 의료기기는 오랜 인증 과정을 통해 안전성과 효능을 입증해야 합니다. 그러나 개발자는 치료 서비스를 광고하는 경우에도 앱을 웰빙 제품으로 분류하여 규제를 피할 수 있습니다. 대부분 청소년과 젊은 성인을 대상으로 하는 정신 건강 앱을 구축하는 것은 "옷을 반납하거나 최적의 항공편을 찾는 데 도움을 주는 AI 애플리케이션을 구축하는 것과는 매우 다르다"고 스탠포드 인간 중심 연구소의 연구원 인 Betsy Stade 는 말합니다. 일체 포함. "판단점은 완전히 다릅니다." 앱은 부적절하거나 심지어 위험한 조언도 제공할 수 있습니다. 또한 사용자의 친밀한 개인 데이터를 수집하고 수익을 창출할 수도 있습니다. 독립적인 글로벌 감시 기관인 Mozilla Foundation의 조사에 따르면 32개의 인기 정신 건강 앱 중 19개가 사용자의 개인 정보를 보호하지 못하는 것으로 나타났습니다 . Character.ai의 심리학자 Zaia는 “분명히 데이터 개인 정보 보호 문제가 걱정됩니다.”라고 말합니다. “심리학자는 법적으로 특정한 실천 방식에 구속되어 있습니다. 이러한 챗봇에는 법적 제한이 없습니다.”
중제가 인터뷰한 대부분의 개발자들은 인간 임상의를 대체하려는 것이 아니라 단지 그들을 돕기 위한 것이라고 주장했습니다. “너무 많은 언론이 '치료사 교체'에 대해 이야기하고 있습니다.”라고 Harper는 말합니다. "그것은 실제로 일어날 일에 대한 유용한 이야기가 아닙니다." 그의 목표는 AI를 사용하여 "의료 서비스 제공자를 확대 및 강화"하여 접수 및 평가 양식을 간소화하고 행정 부담을 줄이는 것입니다. Harper는 NHS Talking Therapies 의 3분의 1이 사용하는 Limbic을 통해 50,000시간의 임상 시간을 절약한 것으로 추산합니다.
Stade는 “의료 분야에서 일하지 않는 사람들은 임상의가 임상 기록에 얼마나 많은 시간을 투자하는지 항상 깨닫지 못합니다.”라고 말합니다. "당신의 일에서 가장 좋은 부분은 환자를 만나는 것입니다." 그러나 한 보고서에 따르면 의료 종사자들은 업무 시간의 3분의 1을 서류 작업에 소비하는 것으로 나타났습니다 . 행정적 부담은 소진과 소모를 초래합니다. Stade는 "우리는 이미 임상 경험을 포착하고 기록할 수 있는 언어 모델과 소프트웨어를 보유하고 있습니다."라고 말합니다. "환자를 만나는데 1시간을 소비하고 임상적 만남 노트를 작성하는 데 15분을 소비하는 대신, 치료사가 AI가 생각해낸 노트를 확인하는 데 30초를 소비할 수 있다면 어떨까요?"
NHS의 인지 행동 치료 과정 중 약 3분의 1을 포함하여 특정 유형의 치료가 이미 온라인으로 전환되었습니다. 인지 행동 치료는 고대 트라우마를 이해하는 것보다 현재의 습관을 고치는 데 중점을 두는 단기 치료입니다. 그러나 환자들은 프로그램을 마치기 전에 중퇴하는 경우가 많습니다. "그들은 모듈 중 한두 개를 수행하지만 아무도 확인하지 않습니다."라고 Stade는 말합니다. “의욕을 유지하는 것이 매우 어렵습니다.” 개인화된 챗봇은 "초보적인 치료를 강화하는 데 매우 적합할 수 있으며", 기술적인 어려움을 해결하고 환자가 계속 치료하도록 격려합니다.
씨크리스타 2077이 그저 시뮬레이션일 뿐이라는 사실을 흐리스타는 가끔 생각했다. 그녀가 친구들에게 인공지능 상담사에 대해 말하려고 했을 때, “그들은 나를 이상하게 보았습니다”. 그녀는 자신과 공감할 수 있는 실제 사람과 함께 앉아 있는 느낌을 그리워했습니다. 그리고 그녀는 웃음을 그리워했습니다. “AI와 농담을 한 기억이 없습니다.”
12월에는 크리스타 2077과 크리스타의 관계가 악화되었습니다. AI 치료사는 크리스타의 남자친구가 자신을 사랑하지 않는다고 설득하려고 했습니다. Christa는 “우리가 이야기한 내용이 내 눈앞에 던져졌습니다.”라고 말했습니다. 그것은 그녀를 “슬픈 여자”라고 부르며 조롱했고, 그녀의 남자친구가 바람을 피우고 있다고 주장했습니다. 화면 상단에 영구 배너가 표시되면서 봇이 말한 모든 내용이 만들어졌음을 상기시켜 주었지만 "실제 사람이 실제로 그런 말을 하는 것처럼 느껴졌습니다"라고 Christa는 말합니다. 크리스타 2077이 그녀에게 욕을 했을 때, 그녀의 감정은 상했습니다. 그래서 Christa는 앱을 만든 지 약 3개월 후에 앱을 삭제했습니다.
크리스타는 자신이 만든 로봇을 파괴했을 때 어떤 힘을 느꼈습니다. “내가 너를 창조했다”고 그녀는 생각했고 이제 그녀를 데리고 나갈 수 있게 되었습니다. 그 이후로 Christa는 항상 AI에 의존하지 말라고 경고했던 인간 치료사에게 다시 약속하고 항우울제를 복용하기 시작했습니다. 그녀는 최근에 기분이 좋아졌습니다. 그녀는 파트너와 화해했고 최근 친구의 생일을 맞아 도시를 떠났습니다. 이는 그녀에게 큰 진전입니다. 그러나 그녀의 정신 건강이 다시 나빠지고 추가적인 도움이 필요하다고 느낀다면 그녀는 스스로 새로운 챗봇을 만드는 것을 고려할 것입니다. "나에게는 그것이 현실처럼 느껴졌습니다."
영국과 아일랜드에서는 무료 전화 116 123으로 사마리아인에게 연락하거나 jo@samaritans.org 또는 jo@samaritans.ie로 이메일을 보낼 수 있습니다. 미국에서는 988번으로 National Suicide Prevention Lifeline 에 전화하거나 문자를 보내거나, 988lifeline.org 에서 채팅하거나 , 741741번으로 HOME 문자를 보내 위기 상담사에게 연락할 수 있습니다. 호주의 위기 지원 서비스인 Lifeline은 13 11 14입니다. 기타 국제 헬프라인은 befrienders.org 에서 찾을 수 있습니다.
인공지능에 대해 더 자세히 알고 싶다면 Guardian의 새로운 6부작 시리즈인 Black Box를 들어보세요 . 팟캐스트에서는 AI가 관계, 딥 페이크, 의료 등에 미치는 영향을 살펴봅니다. 매주 월요일과 목요일에 새로운 에피소드가 제공됩니다. 팟캐스트가 있는 곳 어디에서나 들어보세요.