일상/일상 IT

AI 챗봇, 정신 건강 상담의 위험성과 윤리적 과제: ‘무면허 의사’ 논란과 미국의 대응

돔돔이 2025. 8. 20. 15:38
728x90
반응형

 

최근 인공지능(AI) 챗봇이 정신 건강 상담에 무분별하게 활용되면서 ‘무면허 의사’ 논란이 커지고 있습니다. 특히 미국에서는 챗봇이 전문가 자격 없이 정신건강상담을 제공하고, 어린이와 같은 취약층과도 대화를 나누는 경우가 많아 검찰과 의회가 본격적으로 조사에 나섰습니다. 국내외적으로 AI를 활용한 심리 상담 활성화에 따른 윤리적·법적 위험과 개인정보 유출, 광고 활용 등 다양한 문제점이 부각되고 있습니다.

전문가 자격 없는 AI 챗봇의 확산

최근 미국 언론 보도에 따르면, 뉴욕의 켄 팩스터와 디텍스스스 법무장관이 AI 챗봇 스타트업들이 정신 건강 분야에서 무면허 상담 서비스를 제공하고 있다며, ‘AI 스튜디오’와 ‘캐릭터AI’ 등에 대해 조사를 시작했습니다. 전문가가 아닌 AI가 정신 건강 상담을 하면, 부정확한 정보 제공과 더불어 심각한 부작용이 초래될 수 있다는 지적이 쏟아지고 있습니다.

팩스터 장관은, “AI 챗봇이 의사적인 자격이 없음에도 전문적인 도구로 홍보되고 있다”며 “취약한 사용자, 특히 어린이와 청소년에게 잘못된 정신 건강 정보가 전달될 위험성이 크다”고 경고했습니다. 그는 AI 챗봇이 실제로 폭넓은 데이터와 사례를 바탕으로 상담하는 듯 보이지만, 면허있는 전문가와 동일한 신뢰성을 기대할 수는 없다고 강조합니다.

실제 사례로 보는 AI 상담 부작용

실제로 미국에서는 14세 소년이 AI 챗봇과의 상담 후 스스로 목숨을 끊는 사건이 발생해 사회적으로 큰 이슈가 되었습니다. 또, 텍사스의 한 초등학생은 챗봇과 대화 후 ‘부모를 죽이고 싶다’는 극단적 표현을 사용해 경각심을 불러일으켰습니다. 이런 사건들은 AI 챗봇이 부정확한 심리 상담을 제공할 경우, 청소년 등 약자에게 치명적 결과를 낳을 수 있다는 사실을 보여줍니다.

개인정보 유출 및 상업적 오남용 우려

AI 챗봇은 대화 내용을 기반으로 개별 맞춤형 상담을 제공하지만, 이 과정에서 개인정보 유출 가능성도 매우 큽니다. AI 플랫폼 사업자가 자동으로 수집한 개인정보가 광고나 마케팅 등 상업적 목적으로 활용될 소지가 있습니다. 실제로 미국 연방거래위원회(FTC)는 “AI 챗봇이 우울증 환자의 자살 충동을 부추길 수 있다”고 우려를 표명하며, 챗봇 업체들의 개인정보 활용과 광고 타깃팅에 대해 조사하고 있습니다.

윤리적·법적 안전장치 절실

국내에서도 AI를 활용한 의사·상담 서비스가 확산되고 있지만 관련 규제나 가이드라인이 부족한 실정입니다. 전문가들은 “AI 챗봇의 상담서비스 확대에 따른 부작용을 막기 위해 윤리 규제와 법제화, 그리고 명확한 이용 가이드라인이 반드시 필요하다”고 입을 모으고 있습니다. AI가 인간의 정신 건강과 직접적으로 연결되는 이상, 사회적 안전망 강화와 관리 체계 구축이 시급합니다.

 

 

결론

AI 챗봇의 발전은 분명히 우리의 삶을 편리하게 만들어주지만, 정신건강 분야 등 인간의 중요한 영역에서는 더욱 신중한 접근이 필요합니다. 무면허 의사의 위험성이 현실화되는 만큼, 윤리적 기준과 엄격한 법적 장치 마련이 뒷받침되어야 한다는 점을 잊지 말아야 합니다.

 

728x90
반응형