메타는 최근 인공 지능(AI) 부서의 직원 600명과 위험 평가 그룹의 직원 100명 이상을 포함하여 대규모 해고를 진행했습니다. 이들은 모두 사용자 개인 정보 보호 및 글로벌 규정 준수를 감독하는 책임을 맡은 사람들입니다.
메타의 AI 이사인 알렉산드르 왕 브라이즈가 직원들에게 보낸 내부 메모에 따르면 이번 인력 감축은 회사가 더 빨리 결정을 내리고 더 빠른 속도로 신제품을 개발하는 데 도움이 되기 위한 것으로 설명됩니다.
알렉산드르 왕은 조직을 축소하면 토론 계층이 줄어들고 AI 엔지니어 그룹이 제품 배포에 더 유연하게 대처할 수 있게 될 것이라고 말했습니다.
그러나 AI 부서를 재구성하는 것과 병행하여 메타는 회사의 모든 제품이 미국 연방 거래 위원회(FTC) 및 국제 보안 기관의 규정을 준수하도록 보장한 부서인 IS의 위험 및 개인 정보 보호 관리 그룹에서 100명 이상의 직원을 해고했습니다.
이 그룹은 2019년 메타(당시 페이스북)가 사용자 개인 정보 보호 침해로 FTC로부터 최대 50억 달러의 벌금을 부과받은 케임브리지 애널리티카 스캔들 이후 중요한 역할을 했습니다.
내부 메시지에서 메타의 보안 책임자인 미셸 프로티 브라더스는 회사가 이전처럼 각 제품을 수동으로 검열하는 대신 자동 위험 평가 모델인 브라더로 전환할 것이라고 확인했습니다.
미셸 프로티 씨는 이것이 전체 시스템에서 결과가 더 정확하고 일관성 있게 준수되도록 보장한다고 말했습니다.
그러나 많은 기존 직원과 전직 직원은 특히 개인 데이터와 관련된 복잡하고 민감한 문제를 처리할 때 자동 시스템의 효율성에 대해 회의적인 반응을 보였습니다.
내부 소식통은 해고된 사람들이 주로 런던 브리지 사무실에서 일하는 반면 왕이 이끄는 인공 지능 초지능(AGI) 연구 그룹인 TBD 랩스 브리지 부서는 그대로 유지되고 강력한 투자를 계속 받고 있다고 밝혔습니다.
한편 FAIR, 연구 그룹의 많은 베테랑인 Meta tang과 8년 동안 함께한 연구 책임자인 Yuandong Tian,와 같은 사람들도 해고되었습니다.
분석가들은 이러한 이중 삭감 움직임이 메타 내부의 두 가지 모순적인 추세를 반영한다고 분석합니다. 하나는 OpenAI 및 기타 AI 경쟁업체와 경쟁하기 위한 빠른 혁신에 대한 열망이고 다른 하나는 메타가 미국과 유럽의 규제 기관으로부터 엄격한 감시를 받아야 했던 규제를 준수하고 사용자를 보호해야 할 책임입니다.
메타 대변인은 회사가 프로그램의 성숙도를 반영하고 더 빠르게 혁신하기 위해 조직 구조를 정기적으로 조정하고 있으며 높은 준수 기준을 유지할 것을 약속한다고 밝혔습니다.
그러나 많은 전문가들은 위험 감시 단계에서 알고리즘으로 사람을 대체하면 메타가 제품 개발 속도를 높이기 위해 개인 정보 보호 권한을 포기할 수 있다고 경고합니다. 이는 이 소셜 네트워크가 큰 대가를 치르게 했던 실수가 재발할 위험을 열어줍니다.