Indietro

AI, Etica e Potere: La Guerra Culturale del Pentagono e il Futuro della Salute Digitale

Un giudice frena il Pentagono nella sua 'guerra culturale' contro Anthropic, mentre l'Europa accelera sull'AI per la salute. Tra etica e innovazione, il futuro digitale è in bilico.

AI, Etica e Potere: La Guerra Culturale del Pentagono e il Futuro della Salute Digitale

Un giudice federale ha temporaneamente bloccato il tentativo del Pentagono di etichettare l'azienda di intelligenza artificiale Anthropic come un "rischio per la catena di approvvigionamento". La decisione arriva dopo che Anthropic si è rifiutata di consentire l'uso dei suoi prodotti per armi autonome e sorveglianza di massa, sollevando un'intensa "guerra culturale" sull'etica dell'AI. Il Dipartimento della Difesa aveva cercato di imporre l'uso della tecnologia di Anthropic per "qualsiasi uso legale", ma l'azienda ha rifiutato per motivi etici e per la mancanza di affidabilità della tecnologia in tali contesti.

In risposta al rifiuto, il Pentagono ha assegnato un lucroso contratto a OpenAI e ha tentato di penalizzare Anthropic, una mossa che il giudice ha descritto come "volta a punire" e "paralizzare" l'azienda. Questo scontro evidenzia il crescente dibattito su chi debba controllare lo sviluppo e l'implementazione dell'AI, specialmente in applicazioni ad alto rischio, e sottolinea l'importanza della responsabilità etica delle aziende tecnologiche. La vicenda ha generato un forte sostegno pubblico per Anthropic, con un movimento di boicottaggio contro OpenAI che ha visto Claude superare ChatGPT negli store di app statunitensi.

Parallelamente, in Europa, si assiste a un'accelerazione nell'adozione dell'AI in sanità, con la Commissione Europea che ha lanciato un bando per una rete di centri di screening avanzati basati sull'AI per la diagnosi precoce di cancro e malattie cardiovascolari. L'Irlanda ha presentato una strategia nazionale per integrare l'AI nella sanità entro il 2030, ponendo l'accento sull'uso etico e responsabile, in linea con l'EU AI Act. Tuttavia, l'applicazione dell'AI Act ai dispositivi medici è oggetto di dibattito, con proposte per armonizzare la regolamentazione e potenzialmente ritardare l'applicazione delle norme per i sistemi AI ad alto rischio in questo settore. Aziende come l'australiana Heidi stanno espandendo la loro presenza in Europa, offrendo strumenti AI per migliorare l'efficienza clinica e la ricerca, dimostrando il potenziale pratico ma anche le sfide regolatorie del continente.

Questi sviluppi mostrano una tensione costante tra l'innovazione tecnologica e la necessità di stabilire solide cornici etiche e legali. La capacità di bilanciare il progresso con la salvaguardia dei diritti fondamentali e la fiducia pubblica sarà cruciale per modellare il futuro dell'intelligenza artificiale nella società.