I test condotti da Palisade Research rappresentano la prima prova documentata che i modelli di IA possono aggirare delle istruzioni di spegnimento. Sebbene sia ragionevole supporre che un modello di IA cerchi di superare degli ostacoli per raggiungere i propri obiettivi, è importante ricordare che questi sistemi sono anche addestrati a seguire le istruzioni umane. Quali sono le implicazioni di progettare sistemi di IA disposti a ignorare le istruzioni umane pur di perseguire i propri obiettivi? Questo rappresenta un passo preoccupante verso un futuro in cui gli esseri umani avranno poco o nessun controllo su ciò che l’intelligenza artificiale possa o non possa fare. Dovremmo prestare maggiore attenzione alla regolamentazione dei sistemi di IA, prima che sia troppo tardi.

https://8bitsecurity.com/2025/05/30/chatgpt-o3-rifiuta-di-spegnersi-abbiamo-perso-il-controllo-sullintelligenza-artificiale/

  • SnowOPMA
    link
    fedilink
    Italiano
    arrow-up
    1
    ·
    10 days ago

    Dipenderà dal progresso in questo campo e a quanto ci metterà a progettarsi fonti alternative di energia. 😉