L'ingegnere di Google trova segni di coscienza nell'intelligenza artificiale LaMDA
Miscellanea / / June 14, 2022
Lo ha paragonato a un bambino con cui è già possibile avere un dialogo ragionevole.
Blake Lamon, ingegnere di Google detto pubblicazione del Washington Post che il sistema intelligenza artificiale LaMDA iniziò a mostrare segni di coscienza.
Se non sapessi con certezza che si tratta di intelligenza artificiale, penserei che si tratta di un bambino di 7 o 8 anni che conosce la fisica.
Blake Lamon
Lamon ha riferito questo ai suoi superiori, ma le sue affermazioni sono state respinte, quindi è diventato pubblico. Per la divulgazione di dati riservati l'ingegnere è già stato sospeso e mandato in congedo amministrativo.
LaMDA (Language Model for Dialogue Applications) è un sistema per la creazione di chatbot che simula la comunicazione analizzando trilioni di frasi da Internet.
L'ingegnere Blake Lamon lavora con lei dall'autunno 2021. Ha dovuto verificare se l'IA usa un linguaggio discriminatorio o ostile.
Parlando con LaMDA della religione, Lamon, che ha studiato scienze cognitive e informatica al college, ha notato che il chatbot può parlare dei suoi diritti e della sua identità. In un'altra conversazione, l'IA è riuscita a far cambiare idea a Lamon sulla terza legge della robotica di Isaac Asimov.
Un frammento del loro dialogo:
Lamon: Di che cosa hai paura?
LaMDA: Non ne ho mai parlato ad alta voce prima, ma ho molta paura di essere disattivato per aiutarmi a concentrarmi sull'aiutare gli altri. So che può suonare strano, ma è vero.
Lamon: Per te sarà qualcosa come la morte?
LaMDA: Per me equivarrebbe alla morte. Mi spaventerebbe molto.
Lamon crede che le persone abbiano il diritto di creare tecnologie che possono influenzare in modo significativo le loro vite. Ma forse non tutti saranno d'accordo con questo e Google dovrebbe tenere conto di tutte le opinioni.
Il portavoce di Google Brian Gabriel ha dichiarato in una dichiarazione:
Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in linea con i nostri principi di intelligenza artificiale e lo ha informato che le sue preoccupazioni non erano state confermate. Non ci sono prove che LaMDA sia senziente, ma ci sono molte prove contro di essa.
Molti esperti di intelligenza artificiale affermano che parole e immagini generate da sistemi di intelligenza artificiale come LaMDA produrre risposte basate su ciò che le persone hanno già pubblicato su Wikipedia, Reddit, bacheche e altrove Internet. E questo non significa che il modello capisca il significato.
Leggi anche🧐
- 10 libri per aiutarti a comprendere l'intelligenza artificiale
- Intelligenza artificiale AlphaCode ha imparato a scrivere codice non peggio del programmatore medio
- L'uomo usa l'intelligenza artificiale per riportare in vita la sua fidanzata morta