Meta는 AI 모델을 훈련하기 위해 직원의 조작 데이터를 사용하여 인공 지능 경쟁에서 새로운 접근 방식을 테스트하고 있습니다.
회사는 마우스 움직임, 키보드 조작 및 사용자가 컴퓨터에서 탐색하는 방법에서 정보를 수집할 계획입니다.
이는 AI가 작업을 보다 효율적으로 처리하고 사용자에게 피드백하는 방법을 배우는 데 도움이 되는 핵심 "연료"로 간주되는 새로운 훈련 데이터 소스를 찾는 노력의 일환입니다.
Meta 대표는 목표가 컴퓨터에서 일상 업무를 지원할 수 있는 가상 비서를 구축하는 것이라면 모델은 실제 사례에서 교육해야 한다고 말했습니다. 클릭, 메뉴 열기 또는 텍스트 입력과 같은 데이터는 AI가 인간이 소프트웨어와 상호 작용하는 방식을 더 잘 이해하는 데 도움이 될 것입니다.
이 목표를 달성하기 위해 Meta는 특정 애플리케이션에서 입력 데이터를 수집하기 위한 내부 도구를 배포하고 있습니다.
회사는 민감한 정보와 AI 훈련 목적으로만 사용되고 다른 목적에는 사용되지 않는 데이터를 보호하기 위한 조치를 취했다고 주장합니다.
그러나 이러한 움직임은 기술 산업의 개인 정보 보호에 대한 많은 우려를 불러일으키기도 합니다. 이전에는 폐쇄된 데이터로 여겨졌던 내부 활동이 이제 AI의 자원으로 변모한 것은 개인 데이터와 훈련 데이터 간의 경계가 점점 희미해지고 있음을 보여줍니다.
Meta뿐만 아니라 내부 데이터 활용 추세가 기술 업계에서 확산되고 있습니다. 최근 많은 보고서에서 기업, 특히 스타트업이 Slack 또는 업무 관리 시스템과 같은 작업 플랫폼에서 데이터를 수집하는 목표가 되고 있음을 보여줍니다. 이러한 정보는 AI 훈련 데이터로 변환될 수 있습니다.
치열한 경쟁 환경에서 새로운 데이터 소스를 찾는 것은 이해하기 쉽습니다. 그러나 기술 혁신과 사용자 개인 정보 보호 사이의 합리적인 경계는 무엇일까요?