I test condotti da Palisade Research rappresentano la prima prova documentata che i modelli di IA possono aggirare delle istruzioni di spegnimento. Sebbene sia ragionevole supporre che un modello di IA cerchi di superare degli ostacoli per raggiungere i propri obiettivi, è importante ricordare che questi sistemi sono anche addestrati a seguire le istruzioni umane. Quali sono le implicazioni di progettare sistemi di IA disposti a ignorare le istruzioni umane pur di perseguire i propri obiettivi? Questo rappresenta un passo preoccupante verso un futuro in cui gli esseri umani avranno poco o nessun controllo su ciò che l’intelligenza artificiale possa o non possa fare. Dovremmo prestare maggiore attenzione alla regolamentazione dei sistemi di IA, prima che sia troppo tardi.

https://8bitsecurity.com/2025/05/30/chatgpt-o3-rifiuta-di-spegnersi-abbiamo-perso-il-controllo-sullintelligenza-artificiale/

  • ghim 727
    link
    fedilink
    Italiano
    arrow-up
    2
    ·
    9 days ago

    Mi verrebbe da dire ASIMOV insegna…ma credo che i progettisti o i finanziatori delle varie A.I. manco sanno chi sia…solo profitto e marketing

  • max@poliverso.org
    link
    fedilink
    arrow-up
    1
    ·
    10 days ago

    @snow

    Male male vai al quadro elettrico e tiri giù l’interruttore generale, poi voglio vedere l’intelligenza che fa. 😁😁😁

    • SnowOPMA
      link
      fedilink
      Italiano
      arrow-up
      1
      ·
      9 days ago

      Dipenderà dal progresso in questo campo e a quanto ci metterà a progettarsi fonti alternative di energia. 😉