L’Intelligenza Artificiale, abbreviata IA oppure in inglese AI, è stata di recente al centro dell’attenzione dell’Unione Europea, che ha voluto stabilire i limiti delle responsabilità umane nel suo utilizzo militare e civile
Da molti anni ormai si parla di Intelligenza Artificiale, meglio conosciuta come IA, negli ambiti più disparati. Adoperare una IA significa introdurre nel macchinario, di qualsiasi tipo esso sia, una sorta di intelligenza digitale in grado di elaborare calcoli ed effettuare operazioni in maniera autonoma. Tutto questo ovviamente si traduce in un grandissimo supporto per la persona, specialmente in ambito lavorativo.
Secondo gli esperti le IA saranno il futuro dell’industria e non solo: i robot inizieranno a prendere il posto di lavoratori in settori molto complicati, magari dove l’intervento umano è limitato da fattori che danneggiano la salute. In ogni caso, resta sempre un problema: fino a dove può spingersi l’Intelligenza Artificiale? O ancora, quali sono le responsabilità umane nella gestione di una IA? L’UE ha provato a dare una risposta concreta a questo.
Intelligenza Artificiale: la creazione di un quadro normativo chiaro
E’ notizia di ieri infatti che l’Unione Europea abbia decretato che l’Intelligenza Artificiale deve essere sottoposta al controllo umano. Il motivo è semplice: essendo a tutti gli effetti una “intelligenza a sé stante”, l’intervento umano deve essere sempre pronto e tempestivo, perché qualcosa potrebbe andare storto, l’intelligenza potrebbe generare comportamenti imprevisti e in questi casi si deve poter correggere o disabilitare la IA.
In tal senso, l’UE ha richiesto l’emanazione di un quadro normativo chiaro in materia di IA e di responsabilità umane, con espliciti limiti etici, sia in campo civile sia in campo militare. Ma non solo: i deputati hanno chiesto all’UE e agli Stati Membri di garantire che la IA sia sempre incentrata sull’uomo e sul benessere dell’umanità, nonché al servizio del bene comune, mettendo sempre al centro dell’attenzione la dignità della persona.
Ciò interessa sia il campo civile, sia quello militare. Nel campo civile è stato richiesto che le IA non raccolgano dati sensibili ad esempio in campo medico, oppure in campo giuridico è necessario che le IA aiutino soltanto ad accelerare le pratiche, ma le decisioni spettano sempre al giudice in persona o alle figure annesse. In campo militare, invece, è strettamente necessario che ogni decisione venga presa dall’uomo, in modo da impedire la nascita di macchine in grado di localizzare ed eliminare un bersaglio in maniera autonoma.
Leggi anche:
- L’intelligenza artificiale sbarca nelle serre verticali con il supporto dei big
- Un robot mostra per la prima volta un segnale di empatia
Un possibile evento di svolta per il futuro
E’ probabilmente la prima volta in cui si discute veramente a fondo, in campo giuridico internazionale (in questo caso europeo), di diritti e responsabilità umane collegate alla Intelligenza Artificiale. Potrebbe trattarsi di fatto del primo evento-svolta per il futuro di questa tecnologia, che ci lascia già capire come evolverà l’utilizzo delle IA nel futuro: dobbiamo aspettarci senz’altro una sempre maggiore integrazione all’interno del lavoro, ma anche della vita quotidiana di tutti noi.