2022년 말 ChatGPT와 같은 인공 지능 생성 도구가 등장한 이후 AI는 빠르게 수백만 명의 일상 생활의 일부가 되었습니다.
정보 검색, 업무 계획 수립에서 콘텐츠 창작에 이르기까지 AI는 전례 없는 편리함을 제공합니다.
그러나 이익과 함께 개인 정보 보호, 정확성 및 사람들이 이 기술에 의존하는 방식과 관련된 위험이 있습니다.
인도 Symbiosis 인공 지능 연구소 소장인 Shruti Patil 박사는 2026년이 사용자들이 AI를 사용할 때 그 어느 때보다 정신을 차려야 할 시기가 될 것이라고 강조했습니다.
그녀에 따르면 AI는 인간을 지원할 수 있지만 특히 의료 또는 금융 분야에서 전문적인 결정을 대체할 수 없고 대체해서는 안 됩니다.
Patil 박사는 가장 중요한 첫 번째는 AI가 무엇을 할 수 있는지 명확히 이해하는 것이라고 말합니다. 반복적인 작업, 여러 출처에서 정보를 종합해야 하는 작업은 AI가 뚜렷한 효과를 발휘하는 분야입니다. 예를 들어, 여행 계획 수립은 며칠 동안 배우는 데 걸릴 수 있지만 이제 ChatGPT의 지원으로 몇 분만 필요합니다.
마찬가지로 기본 콘텐츠 생성, 초대장 디자인 또는 간단한 애플리케이션 구축과 같은 작업도 일반적인 AI 도구 덕분에 빠르게 수행할 수 있습니다.
그러나 Patil 여사는 사용자에게 AI와 민감한 정보를 절대 공유하지 말라고 경고했습니다. 개인 식별 정보, 재무 계정 또는 비밀번호와 같은 데이터는 엄격하게 보호되어야 합니다.
대규모 언어 모델은 전 세계적으로 엄청난 양의 데이터로부터 훈련을 받기 때문에 사적인 정보를 제공하는 것은 예측할 수 없는 위험을 내포할 수 있습니다.
중요한 결정에서 AI는 참고용 역할만 해야 합니다. 사용자는 AI에 주식 시장 추세나 의학적 개념에 대해 질문하여 더 잘 이해할 수 있지만 완전히 신뢰해서는 안 됩니다.
파틸 박사는 "AI를 사용하여 의사가 말하는 내용을 더 잘 이해할 수 있지만, 의사를 AI로 대체할 수는 없습니다."라고 강조했습니다.
그녀가 언급한 또 다른 문제는 정보 제공 도구가 합리적으로 들리지만 실제로는 왜곡되는 "AI 환각" 현상입니다.
그녀에 따르면 AI는 일반적으로 짧고 간단한 데이터로 잘 작동하지만, 긴 문서나 복잡한 문서를 처리하는 데 어려움을 겪기 쉽습니다.
따라서 사무실 업무나 중요한 데이터 작업의 경우 사용자는 무료 버전에 의존해서는 안 되며 유료 도구를 사용하고 항상 결과를 다시 확인해야 합니다.
Patil 박사는 또한 AI가 제공하는 정보의 교차 검사가 작지만 큰 영향을 미치는 임무에서도 필수적이라고 말했습니다. 현재 절대적인 정확성과 일관성을 보장하는 AI 도구는 여전히 큰 약점입니다.
게다가 그녀는 특히 가짜 이미지와 비디오를 통해 여성의 사생활을 침해하는 행위에서 AI 도구가 남용되는 것에 대해 우려를 표명했습니다.
그녀에 따르면 책임은 사용자뿐만 아니라 기술 회사와 정부에도 있습니다. 각국은 AI 정책을 엄격하게 구축하고, 사용이 허용되는 데이터 유형과 금지되는 행위를 명확히 규정하고, AI 기업에 엄격한 준수를 요구해야 합니다.
파틸 박사는 "AI는 강력한 도구이지만 올바르고 통제된 방식으로 사용될 때만 실제로 유용합니다."라고 결론지었습니다.