L’effondrement des modèles: Les IA risquent-elles de s’autodétruire?

Dans une étude publiée dans Nature, des chercheurs britanniques et canadiens ont mis en évidence un processus dégénératif qu’ils appellent « l’effondrement des modèles ». Lorsque les IA apprennent à partir de données produites par d’autres modèles, elles perdent progressivement la représentation de la distribution réelle des données sous-jacentes.

Prenons un exemple concret. Les modèles de langage comme GPT-3 génèrent du contenu en se basant sur les patterns les plus courants dans leurs données d’entraînement. Si le web est saturé de contenus créés par ces IA, et que de nouveaux modèles s’entraînent dessus, un décalage progressif s’opère. Les modèles produisent alors des réponses de plus en plus biaisées et déconnectées de la réalité, jusqu’à « l’effondrement ».

Lire la suite

Algoritmi che uccidono

L’intelligenza artificiale sta rivoluzionando il campo delle guerre ibride, influenzando la strategia e la tattica dei conflitti. Dalla localizzazione precisa delle truppe nemiche all’uso di deepfake per destabilizzare mercati finanziari e amplificare l’impatto psicologico sugli avversari, l’IA gioca un ruolo sempre più centrale. La capacità di manipolare masse e di condurre operazioni cognitive avanzate su piattaforme come TikTok dimostra come essa possa trasformare dispositivi domestici e algoritmi di rete in potenti armi di guerra.

Lire la suite