Добавить новость
World News in Italian
Новости сегодня

Новости от TheMoneytizer

La guerra degli algoritmi: quando l’AI sceglie chi deve morire

di Lorenzo Lazzeri

Che cosa succede quando un algoritmo si sostituisce a un comandante nella decisione di colpire un obiettivo umano? Tali strumenti sono chiamati “sistemi di supporto decisionale”. In realtà si tratta di software capaci di analizzare quantità enormi di dati e, sempre più spesso, non si limitano a eseguire reportistica sul contesto ma suggeriscono anche le azioni successive da intraprendere.

Un caso diverso, ma utile per capire quanto l’intelligenza artificiale stia penetrando nelle strutture militari, riguarda Claude, il modello sviluppato dalla startup californiana Anthropic. Adottato nelle reti militari delle forze armate statunitensi, con funzioni di analisi documentale e supporto logistico, non operava come sistema di targeting cinetico e non pilotava droni. Come scrive Massimo Gaggi sul Corriere della Sera, questa tecnologia era entrata in tutti i flussi informativi segreti: analizzava dati provenienti dal web, dagli smartphone, dai satelliti, dalle carte di credito, dalle telecamere e da altri sistemi di sorveglianza, traducendo il tutto in pianificazione logistica con una relativa simulazione di scenari. Il caso, dunque, non riguarda la decisione immediata di colpire, ma mostra come i modelli linguistici e gli strumenti di analisi stiano entrando sempre più a fondo nella filiera militare dell’informazione. In tal proposito, occorre dire che Anthropic recentemente si è rifiutata di far utilizzare il proprio sistema dal governo americano per fini diversi da quelli originariamente previsti, mentre OpenAI non ha perso l’occasione per vendersi all’intelligence americana. La questione si combatte nel campo dell’etica e dei profitti.

Project Maven,il software storico del Pentagono per l’analisi dei dati sul campo di battaglia nato all’interno di Google come progetto di analisi automatizzata delle immagini, oggi si è sviluppato in un ecosistema industriale-militare che include Palantir e Anduril Industries. Il punto, però, è un altro: l’intelligenza artificiale era entrata come assistente, ma la velocità con cui elabora le informazioni finisce per spostare parte del peso decisionale dalla persona alla macchina.

Nel 2014, Ben Rhodes, braccio destro di Barack Obama alla Casa Bianca, descrisse l’angoscia del presidente chiamato a decidere se autorizzare attacchi con i droni Reaper. Questi sono velivoli a pilotaggio remoto armati di missili, utilizzati per missioni di precisione contro leader terroristi.  Il presidente, già all’epoca, era al corrente del rischio di colpire anche civili. Pochi mesi dopo, nel gennaio 2015, in uno di questi attacchi morì Giovanni Lo Porto, cooperante italiano, ucciso in un attacco al confine tra Pakistan e Afghanistan. Obama andò davanti alle telecamere a prendersi la responsabilità di quelle esecuzioni senza processo e degli loro errori commessi.

Nel frattempo, però, il contesto è cambiato radicalmente. Nella prima fase delle operazioni militari israeliane a Gaza, come documenta Gianluca Di Feo nel saggio “Il cielo sporco”, è stata fornita all’intelligenza artificiale una lista di 37.000 nomi di presunti terroristi o fiancheggiatori di Hamas. Successivamente, si è lasciato che fosse un algoritmo a selezionare chi colpire. La revisione umana si era ridotta a un formalismo.

Dario Guarascio, docente di economia e politica dell’innovazione, nel volume “Imperialismo digitale” esamina come nei vent’anni passati dalla guerra dell’Iraq a quella in Ucraina sia cambiato tutto nell’uso degli strumenti informatici. I sistemi entrano nel campo predittivo e in quello prescrittivo. In Ucraina è sempre più evidente: secondo Di Feo, la maggioranza delle vittime è causata da artiglieria il cui puntamento è guidato da droni di ricognizione collegati a sistemi di intelligenza artificiale, con l’intera catena di fuoco ormai incentrata attorno al calcolo automatico. Alla fine, nel ragionamento di Gaggi, il punto più delicato è la delega. Chi ha la responsabilità di autorizzare l’uso letale della forza può scaricarla sulle macchine man mano che vengono incorporate nelle procedure di ingaggio. Più questi sistemi entrano nelle procedure, più sfumata si fa la distinzione tra semplice assistenza e decisione.

L'articolo La guerra degli algoritmi: quando l’AI sceglie chi deve morire proviene da Globalist.it.

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *