거대 기술 기업들은 인공 지능 챗봇을 개인 의료 기록과 통합하여 의료 분야에 깊숙이 침투하고 있습니다.
최근 Microsoft는 사용자가 Apple Watch 또는 Fitbit과 같은 웨어러블 장치의 데이터와 함께 여러 의료 시설의 프로필을 연결하여 건강에 대한 전반적인 시각을 만들 수 있는 도구인 Copilot Health를 소개했습니다.
이러한 추세는 Microsoft에서만 끝나지 않습니다. Amazon, OpenAI 또는 Anthropic도 Health AI 또는 ChatGPT Health와 같은 유사한 플랫폼을 테스트하고 있습니다.
이러한 시스템의 공통점은 건강 데이터를 수집하고 채팅 인터페이스를 통해 사용자에게 직접 분석을 제공하는 것입니다.
이론적으로 챗봇은 분산된 의료 기록과 같은 큰 문제를 해결하는 데 도움이 될 수 있습니다. 건강 정보는 종종 여러 병원에 흩어져 있어 종합이 어렵습니다. AI는 수동으로 처리하는 데 몇 시간이 걸리는 대신 몇 초 만에 이 데이터를 연결할 수 있습니다.
의료비가 증가하는 상황에서 챗봇은 사용자가 자신의 상태를 더 잘 이해하고, 진료를 받기 전에 더 잘 준비하거나, WebMD와 같은 사이트와 유사한 정보를 검색하는 데 도움이 되는 도구가 될 것으로 기대됩니다.
보안 및 개인 정보 보호 위험
그러나 전체 건강 기록을 하나의 플랫폼에 집중하는 것은 큰 위험을 초래합니다. 전문가들은 의료 데이터가 사용자가 비밀로 유지하고 싶어하는 민감한 정보를 포함하고 있기 때문에 해커에게 "금광"이라고 경고합니다.
뿐만 아니라 보안에 대한 엄격한 제약이 있는 병원과는 달리 현재 많은 기술 회사는 유사한 규정을 적용받지 않습니다.
이는 데이터가 AI 훈련이나 광고와 같은 다른 목적으로 사용될 수 있다는 우려를 불러일으킵니다.
일부 전문가들은 특히 생식 건강과 같은 민감한 문제에서 법 집행 기관이 데이터 제공을 요청할 위험이 있다고 경고합니다.
챗봇의 조언은 믿을 만한가요?
지원 도구로 홍보되지만 AI 챗봇은 의사를 대체할 만큼 신뢰할 수 없습니다. 최근 연구에 따르면 OpenAI 및 Meta를 포함한 챗봇은 진단 방향 설정에 있어 검색 엔진보다 정확하지 않습니다.
더 위험한 것은 AI가 때때로 다른 질문 방식 때문에 잘못된 정보를 제공하거나 결론을 변경할 수 있다는 것입니다.
일부 사례에서는 사용자가 부정확한 조언을 따랐을 때 심각한 결과를 기록했습니다.
전문가들은 "의사를 교체하지 않겠다"는 경고에도 불구하고 사용자들은 여전히 챗봇을 믿고 따르는 경향이 있다고 말합니다.
이는 AI가 심각한 병리학적 가능성을 제시할 때 오진이나 과도한 불안으로 이어질 수 있습니다.
Microsoft는 Copilot Health가 참고 정보만 제공하며 단계별로 신중하게 구현되고 있다고 밝혔습니다. 그러나 전문가들은 사용자가 개인 데이터 유출, 잘못된 정보 및 부정확한 자가 진단 위험에 주의해야 한다고 경고합니다.