Il panorama tecnologico è in fermento in queste ultime 48 ore, con due notizie che ridisegnano le strategie dei giganti dell'AI e dei social media. OpenAI ha annunciato la chiusura di Sora, la sua app per la generazione di video AI, a soli sei mesi dal lancio. La decisione, comunicata il 24 marzo 2026, è motivata dalla necessità di concentrare le risorse di calcolo su progetti di ricerca più strategici, come la simulazione del mondo per la robotica, e di ottimizzare i costi in vista di una potenziale IPO. Questo significa che gli utenti che avevano costruito flussi di lavoro attorno a Sora dovranno cercare alternative, sebbene il modello Sora 2 rimarrà disponibile tramite ChatGPT. Parallelamente, è stato sciolto l'accordo da un miliardo di dollari con Disney, che avrebbe permesso l'uso dei suoi personaggi.
Sul fronte legale, Meta Platforms ha subito due pesanti sconfitte in tribunale. Una giuria del Nuovo Messico ha condannato Meta a pagare 375 milioni di dollari per aver violato le leggi sulla protezione dei consumatori, ingannando gli utenti sulla sicurezza delle sue piattaforme e mettendo a rischio i minori. Il verdetto, del 24 marzo 2026, accusa Meta di aver anteposto i profitti alla sicurezza dei bambini. Un altro caso a Los Angeles ha visto Meta (e YouTube) ritenuta responsabile di aver creato prodotti che inducono comportamenti dannosi e dipendenza nei giovani, con danni compensativi e punitivi che per Meta ammontano a 4,2 milioni di dollari. L'azienda ha annunciato ricorso in entrambi i casi.
In questo contesto di rapide evoluzioni e sfide legali, l'Europa continua a forgiare il suo ruolo di pioniere nella regolamentazione dell'AI. Il 26 marzo 2026, il Parlamento Europeo ha adottato la sua posizione su una proposta che ritarda l'applicazione di alcune regole della Legge sull'AI (EU AI Act) per i sistemi ad alto rischio, garantendo che le linee guida e gli standard siano pronti. La legge, che si applica anche alle aziende esterne all'UE i cui sistemi AI sono utilizzati nel continente, introduce divieti specifici, come quello sui sistemi 'nudifier' che creano immagini intime non consensuali generate dall'AI. Queste misure sottolineano l'impegno dell'Europa per un'AI sicura e responsabile, con scadenze per la conformità che si estendono fino al 2028 per alcune categorie di sistemi ad alto rischio.