Indietro

Copilot è 'Solo Intrattenimento': Microsoft Scarica la Responsabilità

Le condizioni d'uso di Microsoft Copilot definiscono l'IA 'solo a scopo di intrattenimento', sollevando interrogativi sulla sua affidabilità per usi professionali e sulla responsabilità degli utenti.

Copilot è 'Solo Intrattenimento': Microsoft Scarica la Responsabilità

Le ultime 48 ore hanno visto emergere una clausola sorprendente nei termini di utilizzo di Microsoft Copilot: il gigante tecnologico dichiara che il suo assistente AI è destinato "solo a scopo di intrattenimento". Questa rivelazione, che contraddice la massiccia campagna di marketing che lo presenta come uno strumento di produttività essenziale per il lavoro, ha generato un'ondata di discussioni e critiche tra utenti e addetti ai lavori.

L'impatto pratico è immediato: gli utenti sono avvisati di "non fare affidamento su Copilot per consigli importanti" e di "usare Copilot a proprio rischio". Ciò significa che la responsabilità per eventuali errori, "allucinazioni" dell'IA o violazioni di copyright generate dalle risposte di Copilot ricade interamente sull'utente finale, non su Microsoft. Questo spostamento di responsabilità solleva serie preoccupazioni per le aziende che integrano Copilot nei loro flussi di lavoro, specialmente considerando i costi elevati degli abbonamenti.

In un contesto normativo europeo, dove il GDPR e l'imminente AI Act (e la Legge 132/2025 in Italia) pongono forte enfasi sulla governance dei dati, la trasparenza e la supervisione umana per i sistemi di intelligenza artificiale, la clausola di Microsoft assume un peso ancora maggiore. Le aziende europee devono valutare attentamente l'uso di Copilot, soprattutto con dati sensibili, data la chiara indicazione di Microsoft riguardo alla responsabilità dell'utente finale. La discrepanza tra la promozione e i termini legali crea un paradosso che le aziende devono affrontare con cautela nell'adozione degli strumenti AI.