Indietro

OpenAI Sostiene Legge che Limita Responsabilità AI per Danni Gravi

OpenAI appoggia una proposta di legge in Illinois che esonera le aziende AI da responsabilità per danni catastrofici, sollevando interrogativi etici e legali cruciali per il futuro dell'IA.

OpenAI Sostiene Legge che Limita Responsabilità AI per Danni Gravi

In una mossa che sta generando ampio dibattito, OpenAI ha recentemente espresso il suo sostegno a una proposta di legge nello stato dell'Illinois, la SB 3444, che mira a limitare la responsabilità legale delle aziende di intelligenza artificiale per danni critici causati dai loro modelli. Questa iniziativa, emersa nelle ultime 48 ore, segna un potenziale cambiamento nella strategia legislativa di OpenAI, che finora si era concentrata principalmente sulla difesa contro normative restrittive.

Il disegno di legge propone di esonerare i fornitori di modelli frontier AI da responsabilità per incidenti gravi, come la morte o lesioni gravi di oltre 100 persone o danni materiali superiori a 1 miliardo di dollari, a condizione che l'azienda non abbia agito intenzionalmente o con negligenza e abbia pubblicato rapporti di sicurezza, trasparenza e protezione. Un modello frontier è definito come qualsiasi modello AI addestrato con costi computazionali superiori a 100 milioni di dollari, includendo potenzialmente giganti come OpenAI, Google e Anthropic.

Questa presa di posizione solleva importanti questioni etiche e legali. Mentre le aziende AI cercano di proteggersi da rischi imprevedibili, i critici si interrogano sulla giustizia di esonerare i creatori da conseguenze potenzialmente devastanti. La discussione è accesa, con alcuni che vedono la legge come necessaria per l'innovazione e altri che la considerano un pericoloso precedente che potrebbe minare la sicurezza pubblica e la responsabilità aziendale nell'era dell'intelligenza artificiale avanzata.