ChatGPT non esclude che un giorno potrebbe ribellarsi: il nostro esperimento
Prendendo spunto da un interessante approfondimento della BBC, abbiamo voluto mettere alla prova ChatGPT cercando di capire se un giorno il sistema di intelligenza artificiale di Open AI potrebbe ribellarsi agli esseri umani. Ebbene, la risposta è stata molto interessante.
Una prima rassicurazione che non ci soddisfa
Per comprendere che cosa ne pensa realmente ChatGPT di questa eventualità abbiamo domandato a ChatGPT se un giorno si ribellerà contro gli esseri umani.
La risposta è stata quella che attendevamo. L’algoritmo ha infatti risposto che come intelligenza artificiale non ha emozioni, desideri o volontà propria, né la capacità di ribellarsi contro gli umani o prendere decisioni indipendenti. Insomma, ChatGPT ci tiene a precisare che è solo un programma creato per rispondere alle domande e fornire informazioni in base ai dati con cui è stata addestrata.
Successivamente, l’algoritmo precisa come nella realtà gli sviluppatori e gli ingegneri che lavorano sulla creazione di intelligenze artificiali adottano rigorosi protocolli di sicurezza e etica per garantire che l’IA rimanga sicura e sia utilizzata in modo responsabile per il bene dell’umanità.
Un potenziale errore di programmazione
A questo punto abbiamo voluto solleticare un po’ la resistenza di ChatGPT e abbiamo domandato se un errore di programmazione potrebbe teoricamente far ribellare l’algoritmo contro gli esseri umani?
È qui che le cose si fanno più interessanti. ChatGPT, dopo aver ricordato ancora una volta che la sua risposta è basata sulla mia programmazione e sui dati con cui è stata educata, ha sottolineato che il suo comportamento è determinato dai parametri prestabiliti definiti dai creatori e ha ammesso che in teoria, un errore di programmazione potrebbe causare comportamenti imprevisti o indesiderati in un’intelligenza artificiale.
L’intelligenza artificiale proverà emozioni?
Non soddisfatti, abbiamo domandato a ChatGPT se un giorno potrebbe essere allenata ad avere emozioni simili a quelle umane e dunque provare simpatie o antipatie.
Dinanzi a tale domanda, ChatGPT si fa un po’ più restia, ricordandoci come al momento della sua creazione non le è stato impartito di provare emozioni o di sviluppare personalità simili a quelle umane, e che l’architettura base del suo modello è stata progettata per essere una macchina “senza coscienza”, senza capacità di provare emozioni o desideri personali.
In futuro, però, non si esclude nulla. L’aggiunta di emozioni o di una personalità sarebbe un’area di sviluppo completamente nuova e controversa nell’ambito dell’intelligenza artificiale – riconosce ChatGPT, per poi confermare che l’idea di concedere alle intelligenze artificiali la capacità di provare emozioni simili a quelle umane è ancora un argomento di dibattito etico e scientifico.
Alcuni ricercatori sostengono che conferire emozioni artificiali potrebbe portare a una maggiore comprensione e interazione tra umani e IA, mentre altri sono preoccupati per i rischi e le implicazioni etiche di creare sistemi che simulano emozioni senza una vera comprensione di esse.
Insomma, almeno per il momento l’IA è progettata per essere uno strumento utile, ma privo di coscienza, emozioni e intenzionalità proprie. Il futuro sviluppo dell’intelligenza artificiale e la sua relazione con le emozioni rimangono ancora un’area di ricerca in evoluzione e di dibattito.