Secondo il Dipartimento della Difesa degli USA spetta a noi decidere cosa possono fare determinate tecnologie. Questi chiarimenti arrivano dopo i timori sul nuovo sistema di targeting avanzato, noto come Atlas, che userà l’intelligenza artificiale nei veicoli da combattimento, veri e propri robot assassini.

Non è nulla di nuovo – i robot con le mitragliatrici c’erano già in Iraq nel 2007. Quando la gente dice “robot” si indica qualsiasi tecnologia con elementi autonomi che eseguono un compito senza la necessità dell’intervento umano. Dunque queste tecnologie esistono da molto. Tuttavia, sono negli ultimi anni ci sono stati risvolti sul piano militare, e non solo. Durante la seconda guerra mondiale, la miccia di prossimità fu sviluppata per far esplodere i proiettili di artiglieria a una distanza predeterminata dal bersaglio. In alcuni casi questa tecnologia ha anche sostituito l’uomo. Quindi la questione non è tanto se dovremmo usare sistemi d’arma autonomi – li usiamo già. Piuttosto, dovremmo concentrarci sul modo in cui li usiamo, sul perché li usiamo e quando diventa indispensabile l’affiancamento dell’uomo.

La nascita della cibernetica

Durante la seconda guerra mondiale, il matematico Norbert Wiener ha gettato le basi della cibernetica – lo studio dell’interfaccia tra umani, animali e macchine. La teoria di Wiener andò oltre, poiché la tecnologia cibernetica potrebbe essere utilizzata per prevenire le decisioni umane – rimuovendo i fallimenti repentini, al fine di prendere decisioni migliori e più rapide. Negli anni successivi alla Seconda Guerra Mondiale, il computer è emerso accanto alla teoria cibernetica per formare un pilastro centrale del pensiero militare, dalle “bombe intelligenti” guidate dai laser dell’era del Vietnam ai missili e i droni. Usando droni militari diminuiscono le morti, ma a riguardo ci sono varie controversie.

L’uomo affiancato dai robot assassini

Un caso simile è quello del soldato moderno. Dalla navigazione GPS ai collegamenti video, i soldati indossano numerosi dispositivi che li legano in una vasta rete che li controlla. Ciò porta a un enigma etico. Dopotutto, le macchine sono molto più efficienti degli esseri umani e non soffrono di affaticamento e stress nello stesso modo di un essere umano. Se ci si aspetta che i soldati si comportino comunque in modo programmatico e robotico, allora qual è il punto? Proprio come il lavoro dell’operatore del drone è supervisionare il drone dal computer, il ruolo dell’umano nel nuovo sistema Atlas è agire come copertura etica nel caso in cui le cose vadano storte.