La Meta ha interrotto la sua collaborazione con Mercor, un fornitore chiave di dati, a seguito di una violazione dei dati che ha messo a rischio i segreti industriali del settore dell'intelligenza artificiale. L'incidente, descritto come un "attacco alla catena di approvvigionamento" avvenuto tramite il software LiteLLM, ha esposto dati cruciali su come le principali aziende di IA addestrano i loro modelli.
Questa interruzione ha un impatto immediato e significativo. L'esposizione di dati di addestramento su misura ("bespoke data") potrebbe compromettere il vantaggio competitivo di aziende come Meta, OpenAI e Anthropic, che si affidano a Mercor per la preparazione di informazioni specializzate. La segretezza attorno a queste "ricette" di addestramento è considerata sacra, e la violazione rappresenta una grave minaccia alla loro integrità.
Oltre alle implicazioni per la sicurezza aziendale, migliaia di lavoratori umani – professionisti come medici e avvocati che contribuivano all'addestramento dell'IA – si trovano ora di fronte all'incertezza occupazionale, con progetti sospesi e ore di lavoro non registrabili. L'episodio sottolinea la fragilità delle dipendenze nello sviluppo dell'IA e la necessità di una sicurezza informatica rafforzata. In un contesto europeo, una violazione di tale portata solleva serie preoccupazioni in merito alla protezione dei dati personali e alla conformità con normative come il GDPR, specialmente se i dati esposti includono informazioni sensibili di cittadini europei. Le aziende coinvolte dovranno affrontare un maggiore scrutinio e potenziali sanzioni, evidenziando la necessità di robuste misure di sicurezza lungo l'intera catena di fornitura dell'IA.