L'Unione Europea pubblica una guida su come non violare la sezione "uso proibito" dell'AI Act
Le aziende dell'Unione Europea di tutto il mondo sono ora ufficialmente tenute a rispettare l'ampia legge sull'IA dell'Unione Europea, che cerca di mitigare molti dei potenziali danni posti dalla nuova tecnologia. Martedì scorso la Commissione europea ha fornito ulteriori indicazioni su come le aziende possono garantire che i loro modelli generativi siano all'altezza dei requisiti dell'Unione e non rientrino nella categoria di "rischio inaccettabile" prevista dalla legge per i casi di utilizzo dell'IA, che sono ora vietati all'interno del territorio economico. La legge sull'IA è stata votata nel marzo 2024, ma la prima scadenza per la conformità è passata solo pochi giorni fa, il 2 febbraio 2025.
L'UE ha vietato otto usi specifici dell'IA:
Manipolazione e inganno dannosi basati sull'IA Sfruttamento dannoso delle vulnerabilità basato sull'IA Social scoring Valutazione o previsione del rischio di reati penali individuali Scraping non mirato di Internet o di materiale CCTV per creare o ampliare i database di riconoscimento facciale Riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione Categorizzazione biometrica per dedurre determinate caratteristiche protette Identificazione biometrica remota in tempo reale per scopi di applicazione della legge in spazi accessibili al pubblico Le aziende che violano i casi d'uso proibiti potrebbero incorrere in sanzioni pecuniarie pari al 7% del loro fatturato globale (o a 35 milioni di euro, a seconda di quale sia il valore più alto). Sebbene la Commissione ammetta che queste linee guida non sono di per sé legalmente vincolanti, nel suo post di annuncio fa notare che "le linee guida sono state concepite per garantire un'applicazione coerente, efficace e uniforme della legge sull'IA in tutta l'Unione europea", aggiungendo che "le linee guida forniscono spiegazioni giuridiche ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti della legge sull'IA". Tuttavia, non ci si deve aspettare che i trasgressori vengano trascinati in tribunale nell'immediato futuro. Le norme dell'AI Act saranno attuate gradualmente nei prossimi due anni, con la fase finale prevista per il 2 agosto 2026. Andrew Tarantola è un giornalista che da oltre un decennio si occupa di tecnologie emergenti, dalla robotica alle macchine... I migliori autori chiedono alle aziende di AI di essere pagati per l'utilizzo delle loro opere Più di 9.000 autori hanno firmato una lettera aperta alle principali aziende tecnologiche, esprimendo preoccupazione per il modo in cui queste ultime utilizzano le loro opere protette da copyright per addestrare i chatbot alimentati dall'AI.
Inviata dalla Authors Guild agli amministratori delegati di OpenAI, Alphabet, Meta, Stability AI, IBM e Microsoft, la lettera richiama l'attenzione su quella che descrive come "l'ingiustizia intrinseca nello sfruttare le nostre opere come parte dei vostri sistemi di IA senza il nostro consenso, credito o compenso"."Continua a leggere Smettete di usare strumenti di IA generativa come ChatGPT, Samsung ordina al personale Samsung ha detto al personale di smettere di usare strumenti di IA generativa come ChatGPT e Bard perché teme che rappresentino un rischio per la sicurezza, ha riferito lunedì Bloomberg. La mossa fa seguito a una serie di imbarazzanti errori del mese scorso, quando i dipendenti di Samsung avrebbero inserito in ChatGPT dati sensibili relativi ai semiconduttori in tre occasioni. Continua a leggere ChatGPT ottiene una modalità privata per le chat segrete di IA. Ecco come usarla OpenAI ha appena lanciato una nuova funzione che permette di disabilitare la cronologia delle chat quando si usa ChatGPT, consentendo di mantenere le conversazioni più private. In precedenza, ogni nuova chat appariva in una barra laterale a sinistra, rendendo facile per chiunque nelle vicinanze ottenere un rapido riepilogo di come avete usato l'IA per divertimento, lavoro scolastico o produttività. Questo può risultare problematico quando si discute di qualcosa che si vuole tenere segreto. Continua a leggere
Altri articoli
L'Unione Europea pubblica una guida su come non violare la sezione "uso proibito" dell'AI Act
La Commissione europea ha fornito indicazioni alle aziende su come garantire che i loro modelli generativi non violino la sezione dell'AI Act sugli usi vietati.
