I test condotti da Palisade Research rappresentano la prima prova documentata che i modelli di IA possono aggirare delle istruzioni di spegnimento. Sebbene sia ragionevole supporre che un modello di IA cerchi di superare degli ostacoli per raggiungere i propri obiettivi, è importante ricordare che questi sistemi sono anche addestrati a seguire le istruzioni umane. Quali sono le implicazioni di progettare sistemi di IA disposti a ignorare le istruzioni umane pur di perseguire i propri obiettivi? Questo rappresenta un passo preoccupante verso un futuro in cui gli esseri umani avranno poco o nessun controllo su ciò che l’intelligenza artificiale possa o non possa fare. Dovremmo prestare maggiore attenzione alla regolamentazione dei sistemi di IA, prima che sia troppo tardi.
Mi verrebbe da dire ASIMOV insegna…ma credo che i progettisti o i finanziatori delle varie A.I. manco sanno chi sia…solo profitto e marketing
Bingo. 🎉
Male male vai al quadro elettrico e tiri giù l’interruttore generale, poi voglio vedere l’intelligenza che fa. 😁😁😁
Dipenderà dal progresso in questo campo e a quanto ci metterà a progettarsi fonti alternative di energia. 😉