Blake Lamoine è stato messo in congedo retribuito dopo la sua denuncia: “Il software LaMDA sembra un bambino di 7-8 anni”.
Potrà mai la LaMDA competere con gli umani?
Sembra che un’azienda di fama mondiale come quella della Google abbia messo uno dei suoi ingegneri in congedo amministrativo retribuito per presunta violazione delle sue politiche di riservatezza dopo essersi preoccupato che un sistema di chatbot di intelligenza artificiale avesse raggiunto un livello “senziente”.
Secondo quanto riportato dal Washington Post, l’ingegnere, Blake Lemoine, che lavora per Google AI, stava testando se il suo modello LaMDA poteva generare linguaggio discriminatorio o incitamento all’odio.
Ma, aspettiamo un attimo…Cosa si intende per LaMDA? La LaMDA è il linguaggio di comunicazione verbale basato su intelligenza artificiale che Google ha presentato lo scorso anno alla conferenza per sviluppatori I/O 2021. Le preoccupazioni dell’ingegnere sono emerse dal momento in cui ha cominciato a ricevere risposte convincenti dal sistema IA su temi quali il diritto e l’etica.
Nel mese di Aprile ha condiviso con i dirigenti un documento intitolato “Is LaMDA Sentient?” contenente una trascrizione delle sue conversazioni con l’IA che, secondo lui, dimostra di essere senziente. Google non l’ha presa affatto bene, infatti ha affermato che non poteva andare oltre il test a lavoro con l’IA, ribadendo anche che il dipendente con la trascrizione aveva violato le politiche di riservatezza.
Google e Blake Lemoine: la sua reazione
Diciamo che, ad un certo punto, la situazione è diventata paradossale perchè l’ingegnere ha persino ingaggiato un avvocato per rappresentare il sistema di intelligenza artificiale parlando con un rappresentante della commissione giudiziaria della Camera in merito a presunte attività non etiche presso Google.
In un post sul blog “Medium” dello scorso 6 Giugno, il giorno in cui Lemoine è stato messo in congedo amministrativo, l’ingegnere ha affermato di aver cercato “una quantità minima di consulenza esterna per aiutarmi a guidarmi nelle mie indagini” e che l’elenco delle persone con cui aveva discusso includeva il governo degli Stati Uniti.
In una dichiarazione rilasciata al Washington Post, un portavoce di Google ha affermato che “non ci sono prove” che LaMDA sia senziente. E’ stato detto che il team, esperti di etica e tecnologi inclusi, ha esaminato le preoccupazioni di Blake in base ai loro principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente.
Google e la IA:
Google afferma che stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo facendo prendere sembianze animali a dei modelli di conversazioni che non sono senzienti.
Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento.
Ma nonostante le sue preoccupazioni, l’ingegnere Lemoine intende continuare a lavorare sull’IA in futuro. “La mia intenzione è di rimanere nel settore, che sia in Google o altrove” sono state queste le sue parole.
? FONTE: www.ansa.it, www.zazoom.it, www.mashable.com