Notizie

L'etica nell'era dell'intelligenza artificiale! Intervista al prof. dr. sc. Ana Pošćić

Abbiamo parlato con il prof. dr. sc. Ana Pošćić, presidente del comitato etico del progetto EDIH Adria ed esperta di questioni giuridiche ed etiche nel contesto dell'intelligenza artificiale. Prof. dr. sc. Pošćić guida un team di esperti interdisciplinari che si occupano di sfide etiche e promuovono i più alti standard etici nello sviluppo e nell'applicazione di nuove tecnologie. In questa intervista, ci avvicinerà al ruolo del Comitato Etico, ai dilemmi etici più attuali nel campo dell'intelligenza artificiale e agli esempi concreti delle sfide etiche che affrontiamo nel mondo degli affari di oggi.

1. Come descriverebbe il ruolo e le responsabilità del comitato etico di cui è presidente nel progetto EDIH Adria?

Attraverso competenze tecniche, sviluppo di servizi innovativi e formazione, il progetto EDIH ADRIA garantisce l'implementazione dei più alti standard etici e il rispetto delle normative legali. Al fine di supportare le aziende in eventuali dubbi su questioni etiche, è stato istituito un Comitato Etico come organo consultivo.
Il comitato rappresenta un organo consultivo specializzato sulle questioni etiche e giuridiche relative allo sviluppo e all'uso dei sistemi di IA e delle nuove tecnologie. Il gruppo è composto da esperti di varie discipline come il diritto, l'informatica, l'ingegneria elettrica, le scienze dell'informazione, le scienze tecniche, la psicologia e la filosofia. Il compito del comitato è quello di individuare, considerare e riflettere su questioni etiche relative all'intelligenza artificiale, indicare fonti, principi, controversie, atti dello Stato e dell'UE e, a seconda delle esigenze, l'eventuale preparazione di linee guida nei singoli ambiti di attività. Il risultato concreto delle attività è l'adozione della Policy sull'uso degli strumenti di Intelligenza Artificiale presso l'Università di Fiume, alla quale ho partecipato attivamente.

 

 

2. Come percepisce il suo comitato etico i dilemmi etici più attuali che accompagnano l'implementazione dell'intelligenza artificiale nel settore delle imprese oggi?

Si parla molto dei sistemi di IA, dei loro vantaggi, svantaggi e rischi, con poca o sporadica attenzione ai principi etici che discutono di standard giusti e sbagliati, accettabili e inaccettabili. Si tratta in primo luogo di principi, e penso che sia importante tenerli a mente e pensare ogni passo avanti alla luce dei principi e giudicare le ripercussioni.
L'etica dell'IA affronta l'importante questione di come gli sviluppatori umani, i produttori e gli operatori dovrebbero comportarsi per ridurre al minimo i danni etici che l'IA può causare nella società, sia a causa di una progettazione scadente (non etica), applicazioni inappropriate o uso improprio. I principi etici in questo settore affrontano questioni quali la privacy, la parzialità del sistema, l'autonomia, la responsabilità, ma anche l'impatto sul mercato del lavoro e le questioni di sostenibilità.
Non appena entrerai in quest'area, ti imbatterai in un gran numero di guide e politiche sull'uso responsabile ed etico dei sistemi di IA. In particolare, un gran numero è stato adottato nel contesto dell'uso dell'IA generativa (ad esempio il Forum economico mondiale, l'UNESCO, il Consiglio d'Europa, l'UE, ecc.).

3. Può individuare esempi concreti di sfide o controversie etiche sorte di recente nel contesto dell'applicazione della tecnologia AI nel mondo degli affari?

Russel e Norvig nel loro libro di testo "Artificial Intelligence: Un approccio moderno" riassume i principi etici esistenti che possono essere applicati ai sistemi di IA come la sicurezza del sistema, la protezione della privacy, la cooperazione di tutte le parti interessate, la trasparenza del sistema, la limitazione dell'uso dannoso, l'affidabilità del sistema, la responsabilità, il rispetto dei diritti umani e dei valori fondamentali e il rispetto della diversità / inclusione. Oltre ai precedenti, sono stati sempre più esaminati l'impatto dell'intelligenza artificiale sul mercato del lavoro, la sostenibilità dei sistemi stessi e le questioni di solidarietà. I principi etici sono generalmente una bussola morale e, a differenza delle norme giuridiche, sono spesso più flessibili, il che dovrebbe essere utilizzato come vantaggio.
Più recentemente, ci sono sempre più esempi in cui gli algoritmi vengono utilizzati per identificare i candidati e possono inavvertitamente portare a pregiudizi nelle assunzioni. Un esempio è la discriminazione dei candidati sulla base della razza, del genere o di alcune altre caratteristiche. Inoltre, sappiamo che gli algoritmi raccolgono grandi quantità di dati, il che aumenta la loro efficienza. La raccolta, l'archiviazione e l'analisi dei dati possono sollevare problemi di privacy. Inoltre, gli algoritmi di apprendimento automatico operano spesso sul principio delle scatole nere e talvolta non è chiaro (o almeno non alla maggioranza) come prendono determinate decisioni. È proprio la mancanza di trasparenza che può rendere difficile stabilire la responsabilità per i risultati, il che alla fine si traduce in una mancanza di fiducia da parte sia dei beneficiari che del pubblico in generale.
Uno degli esempi di cui ho letto di recente, e mi sembra un po' bizzarro, sono i cosiddetti "deathbots", che consentono agli utenti di "interagire" con il defunto. Ora, con l'aiuto di strumenti generativi, chiunque abbia accesso a Internet e con conoscenze minime può "rianimare" il defunto. Sebbene il loro scopo principale sia quello di aiutare ad accettare la morte dei propri cari e adattarsi alle nuove circostanze, gli strumenti aprono numerosi dilemmi etici come la protezione della dignità del defunto e la questione dell'uso improprio dei dati.

4. Come valuta l'equilibrio tra i potenziali benefici delle tecnologie di IA per le aziende e i rischi etici che possono comportare per gli individui, la società o l'ambiente?

Come ho sottolineato in precedenza, tali questioni sono state discusse solo sporadicamente. Un altro indicatore è un'indagine dell'OCSE pubblicata di recente sulla frequenza con cui i termini relativi all'etica, all'IA responsabile e all'IA affidabile sono menzionati negli annunci di lavoro. Nella maggior parte dei paesi, Meno di 1% Tutti i posti sono menzionati nei termini precedenti, con una tendenza al rialzo osservata tra il 2019 e il 2022. Ad esempio, in Germania, la cifra è aumentata da meno di 0,05% 2019 a 0,4% nel 2022, mentre ad esempio il Regno Unito con 0,1% a 0,4%.
Ritengo che non sia necessario elencare i benefici concreti che le nuove tecnologie apportano alle imprese in termini di aumento della produttività, nuovi prodotti e servizi innovativi, accelerazione di processi complessi e riduzione dei costi. D'altra parte, non dobbiamo dimenticare i rischi etici per gli individui e la società in termini di perdita di posti di lavoro, riduzione dell'autonomia umana, protezione della privacy e questioni di discriminazione. Devo menzionare un altro aspetto che può essere dimenticato, che è lo sviluppo di sistemi sostenibili. Le ricerche condotte finora dimostrano che i sistemi di IA possono contribuire, ma anche ostacolare in modo significativo, il conseguimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.
Infine, ciò che è importante è l'impatto sociale delle nuove tecnologie, vale a dire se ha portato a nuove o più profonde disuguaglianze sociali esistenti o se cerca di indirizzare le nuove tecnologie per promuovere la giustizia sociale e l'inclusione. Tutti i rischi precedenti devono essere valutati da una prospettiva interdisciplinare e devono essere sviluppate politiche, quadri giuridici e orientamenti etici adeguati.

5. Quali sono le considerazioni chiave di te e del tuo consiglio su questioni come i pregiudizi algoritmici, la violazione della privacy o la riduzione dell'autonomia umana nei sistemi di IA utilizzati dalle aziende?

Questioni come il pregiudizio algoritmico, la protezione della privacy e la riduzione dell'autonomia umana non sono una novità. I problemi sono esistiti prima. Ricordiamo solo quando una decina di anni fa Amazon sviluppò un software per analizzare i CV e riassumere i dati rilevanti al fine di classificare e cercare i migliori candidati. Il sistema ha preferito i candidati maschi. Vorrei sottolineare che ci sono stati esempi simili prima, ma con l'emergere di nuovi strumenti più avanzati, le questioni si stanno intensificando, il che non significa che i sistemi siano ora più trasparenti e che possiamo spiegare come i sistemi prendono decisioni.
Un altro esempio recente riguarda una recente decisione della Corte di giustizia dell'UE (CGUE) del dicembre 2023, in cui per la prima volta la Corte ha avuto l'opportunità di chiarire e interpretare l'effetto delle disposizioni del regolamento sulla protezione dei dati personali, in particolare l'articolo 22 del GDPR. (1). La Corte ha infatti stabilito che la più grande agenzia di credito privata della Germania, la SCHUFA, valuta illegittimamente la solvibilità dei clienti sulla base di un sistema automatizzato basato su dati personali (profilazione). La Corte ha confermato che nel caso precedente, per quanto riguarda la profilazione e le decisioni automatizzate, i meccanismi previsti dal regolamento per la protezione dei dati personali si applicano anche ai terzi. Questa interpretazione ha un impatto importante sulla gestione algoritmica e sull'applicazione di sistemi decisionali e di supervisione automatizzati sul posto di lavoro, sebbene il suo contesto fattuale si riferisca al processo decisionale e alla valutazione automatizzati nel contesto delle domande di prestito.
Nell'Unione europea, negli ultimi anni è stata prestata particolare attenzione a un approccio sistemico nel settore dell'IA. La Commissione europea ha pubblicato gli orientamenti etici per un'intelligenza artificiale affidabile, che pongono le persone al centro dello sviluppo dell'intelligenza artificiale (la cosiddetta intelligenza artificiale antropocentrica). L'IA affidabile ha tre componenti, che devono essere soddisfatte durante l'intero ciclo di vita del sistema: legalità, etica e resilienza. Ogni componente è necessario di per sé, ma non sufficiente per ottenere un'IA affidabile. Idealmente, tutte e tre le componenti sono coerenti e si sovrappongono nelle loro azioni. Gli orientamenti stabiliscono principi etici e valori correlati che devono essere rispettati nello sviluppo, nella diffusione e nell'utilizzo dei sistemi di IA, come il rispetto dell'autonomia umana; prevenire il verificarsi di danni; giustizia e spiegabilità. Gli orientamenti specificano i requisiti che i sistemi di IA dovrebbero soddisfare, specificando i metodi tecnici e non tecnici per la loro attuazione. Tuttavia, si tratta di un regolamento orizzontale e sarà anche necessario adottare regolamenti settoriali specifici in futuro, tenendo conto delle specificità dei sistemi di IA nei diversi ambienti aziendali.

6. Come affronta le implicazioni etiche dell'automazione basata sull'IA, in particolare in relazione alle potenziali perdite di posti di lavoro o ai cambiamenti nelle dinamiche della forza lavoro?

Per sfruttare efficacemente i vantaggi dell'IA nel mercato del lavoro sono necessarie infrastrutture adeguate e una forza lavoro qualificata. La relazione del difensore civico 2023 cita uno studio del Fondo monetario internazionale (FMI) secondo cui l'intelligenza artificiale potrebbe interessare circa 60 paesi.% posti di lavoro nelle economie avanzate, mentre nei mercati emergenti potrebbe cambiare 40%, e nei paesi a basso reddito 26% posti di lavoro. Egli afferma inoltre che secondo la ricerca della Camera croata dell'economia e Best Advisory d.o.o. in 342 aziende croate, 50% le grandi aziende utilizzano alcuni degli strumenti di intelligenza artificiale, per lo più nell'automazione dei processi aziendali, ma solo 5% Le aziende della Repubblica di Croazia istruiscono regolarmente i dipendenti sull'intelligenza artificiale.
Nuovi processi influenzano costantemente i rapporti di lavoro esistenti che portano a nuove dinamiche.

Sarà fondamentale garantire che i lavoratori interessati dall'automazione siano riqualificati e riqualificati per adattarsi alle nuove esigenze del mercato del lavoro. Prima di tutto, è importante investire nel sistema educativo, cambiare e integrare i curricula dei singoli corsi, educare costantemente gli insegnanti, aumentare la consapevolezza dei vantaggi e degli svantaggi, insistere su un approccio interdisciplinare e fornire programmi di formazione flessibili e adattabili.

Incoraggiare lo sviluppo di nuovi posti di lavoro e opportunità di lavoro è imperativo. Inoltre, anche questioni di sicurezza sociale come la protezione dalla disoccupazione, l'accesso all'assistenza sociale e all'assistenza sanitaria sono aspetti importanti. Tuttavia, è necessario adattare tutte le parti interessate, vale a dire percepire gli strumenti e i sistemi di IA per assistere i processi esistenti. Credo che l'intelligenza artificiale non sostituirà gli esseri umani, ma le persone che utilizzano gli strumenti di intelligenza artificiale, ma solo sul presupposto che stiamo sviluppando sistemi controllabili.

7. Quale ruolo svolge il suo consiglio di amministrazione nel promuovere quadri normativi o standard di settore che promuovano pratiche etiche nell'uso delle tecnologie di IA tra le aziende?

Come professore di diritto, devo affrontare la necessità di un quadro normativo. Mentre alcuni decenni fa ci poteva essere qualche dubbio sul fatto che i sistemi di IA e le nuove tecnologie dovessero essere regolamentati, il rapido sviluppo di oggi impone la necessità di considerare l'approccio e il metodo di regolamentazione. Da un lato, abbiamo lo sviluppo accelerato di nuove tecnologie e, dall'altro, il sistema giuridico, che spesso è molto lento. In questo settore, una reazione rapida e tempestiva è importante.
Per comprendere l'approccio dell'Unione europea, può essere più facile spiegarlo con l'esempio. Sappiamo che esistono sistemi automatici di riconoscimento facciale. Mentre, ad esempio, in alcuni paesi, come la Polonia, vengono condotte ricerche serie utilizzando questi sistemi per aiutare i bambini con disabilità intellettive a comunicare tra loro e integrarli nella società, d'altra parte, lo stesso o simile sistema viene utilizzato in Cina per monitorare la popolazione. Quello che voglio dire è che il sistema è lo stesso solo differisce il principio di utilizzo. L'Unione europea vuole affermarsi come leader nel settore della regolamentazione e nel 2021 ha adottato una proposta di regolamento sull'intelligenza artificiale (legge sull'intelligenza artificiale), che è stata recentemente adottata. Il regolamento non disciplina i sistemi stessi, ma il loro utilizzo. La legge stessa è molto dettagliata e in generale indica problemi con la regolamentazione poiché, secondo alcuni, è troppo dettagliata e alcune questioni sono omesse. Si vedrà come evolverà il sistema alla luce dei rapidi cambiamenti e delle difficoltà nella regolamentazione del monitoraggio. A titolo di esempio, osservo che la prima proposta di regolamento non includeva modelli di IA per uso generale (modelli generativi) che sono ora contenuti nel regolamento.

8. A suo parere, quali sono le azioni più urgenti che le imprese devono intraprendere per garantire che il loro utilizzo delle tecnologie di IA sia in linea con i principi e i valori etici?

Forse uno dei modi possibili è applicare il concetto di cosiddetta "etica fin dalla progettazione", secondo cui alcuni principi etici sarebbero già integrati nel processo di progettazione di sistemi e tecnologie. Pertanto, gli aspetti etici dovrebbero essere presi in considerazione nella fase di progettazione del sistema e non successivamente o quando sorge un problema. Già nella fase di sviluppo del prodotto, si dovrebbe prendere in considerazione le possibili implicazioni dei prodotti su questioni di equità, trasparenza, privacy, sicurezza ed equità, valutazione sociale e ambientale. Inoltre, possono essere d'aiuto i summenzionati orientamenti per un'IA affidabile, rivolti a tutti i portatori di interessi nel settore dell'IA che progettano, sviluppano, distribuiscono, attuano, utilizzano o sono interessati dall'IA. Contengono un elenco non esaustivo per la valutazione dell'IA affidabile che rende operativa l'IA affidabile. Ciò potrebbe essere particolarmente applicabile ai sistemi di IA che interagiscono direttamente con gli utenti e sono destinati principalmente agli sviluppatori e agli operatori di sistemi di IA (sviluppo autonomo del sistema o approvvigionamento del sistema da terzi). È uno strumento per sostenere i professionisti che sviluppano sistemi di IA.
In definitiva, i sistemi di IA devono essere antropocentrici e basati sull'obbligo di utilizzare il sistema al servizio dell'umanità e del bene comune.

9. Altri sette esperti partecipano ai lavori del comitato, il prof. dr. sc. Sanja Barić, cattedra di diritto costituzionale, facoltà di giurisprudenza, Università di Fiume, doc. dr. sc. Ivan Cerovac, Dipartimento di Filosofia, Facoltà di Scienze Umane e Sociali, Università di Fiume, Assoc. prof. dr. sc. Asmir Gračanin, Dipartimento di Psicologia, Facoltà di scienze umane e sociali, Università di Fiume, dr. sc. Franko Hržić, Università di Fiume, Facoltà di Ingegneria e Centro per l'Intelligenza Artificiale e la Sicurezza Cibernetica, Assoc. prof. dr. sc. Martina Ivašić-Kos, Università di Fiume, Facoltà di Informatica e Tecnologie Digitali e Centro per l'Intelligenza Artificiale e la Sicurezza Cibernetica, Assoc. prof. dr. sc. Adrijana Martinović, Facoltà di Giurisprudenza, Università di Fiume e M.Sc. Damir Medved, direttore del progetto EDIH Adria, Università di Fiume. In che modo le loro competenze e competenze contribuiscono al lavoro del consiglio di amministrazione?

Dato che si tratta di questioni complesse che richiedono interdisciplinarità e comprensione dei vari aspetti nel lavoro del comitato partecipano esperti rinomati nelle loro discipline che, a seconda delle esigenze alla luce della loro esperienza, si concentrano su alcuni aspetti.

10. Infine, dovremmo temere la crescente penetrazione dell'IA nel nostro business e nella vita di tutti i giorni?

Credo che non dovremmo avere paura, ma approcciare i processi con cautela in modo da cercare di capirli, educarci e guardare alle possibili implicazioni positive e negative, o cercare di indirizzare questi processi a nostro vantaggio, per migliorare i processi aziendali e aziendali. È importante considerare e comprendere i meccanismi tecnici, culturali, giuridici, filosofici e politici per cercare di controllare i sistemi e le nuove tecnologie in un momento di rapido cambiamento, poiché questo è qualcosa che è accaduto secoli e anni fa, e ora si svolge in giorni, minuti. Mustafa Suleyman suggerisce anche un tale approccio con una proposta di possibili metodi di controllo nel suo libro più recente, The Upcoming Wave.
Tuttavia, anche una volta raggiunto il rispetto dei diritti fondamentali legalmente applicabili, le considerazioni etiche possono aiutarci a capire in che modo lo sviluppo, la diffusione e l'uso dell'IA possono incidere sui diritti fondamentali e sui valori su cui si basano e possono aiutarci a fornire orientamenti più sfumati quando cerchiamo di identificare cosa dovremmo fare con la tecnologia, piuttosto che cosa possiamo (attualmente) fare con essa.

Essa mira a trovare un equilibrio tra la promozione dell'innovazione e delle nuove tecnologie e, d'altra parte, la necessità di certezza giuridica nel rispetto delle norme morali, etiche e sociologiche. Penso che lo sviluppo di nuove tecnologie e sistemi di intelligenza artificiale sia auspicabile, ma solo come strumento a beneficio dell'umanità. Investire nell'istruzione per tutti noi con un approccio interdisciplinare continua ad essere una priorità.

Per quanto riguarda la Croazia, sembra che siamo all'inizio. Secondo un'indagine dell'OCSE del 2023, una media di 35% Nel 2021 gli adulti hanno espresso preoccupazione per il fatto che l'IA avrà per lo più un impatto negativo nei prossimi due decenni, mentre 42% Pensa che lo userà per la maggior parte del tempo. Nel caso della Croazia, meno di 30% ritiene che l'IA aiuterà o avvantaggerà! C'è ancora molto lavoro da fare sulla consapevolezza e la tecnologia e i nuovi sistemi si stanno sviluppando a un ritmo esponenziale, o come dice il titolo del libro Diamandis e Kotler: Il futuro è più veloce di quanto pensiate!

Foto: Archivio

Facebook
Twitter
LinkedIn

Altre notizie

Altre notizie

che cos'è

de minimis?

aiuti di modesto valore; il cui importo totale non può superare 200 000 EUR per impresa, o 100 000 EUR nel caso di un'impresa che effettua trasporti su strada per conto terzi, in un qualsiasi periodo di tre esercizi fiscali.

A tal fine, tutti gli aiuti "de minimis" sono presi in considerazione (aggregati) indipendentemente dallo strumento, dalla finalità e dal livello dell'autorità che concede l'aiuto "de minimis".

EDIH di Adria

Accedi

Utilizzeremo i dati personali raccolti da questa applicazione in conformità con Informativa sulla privacy.

Edih Adria
Panoramica privacy

Questo sito Web utilizza i cookie in modo da poterti fornire la migliore esperienza utente possibile. Le informazioni sui cookie vengono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando torni sul nostro sito web e aiutare il nostro team a capire quali sezioni del sito web ritieni più interessanti e utili.