Il laboratorio Killer Robot affronta il boicottaggio da parte di esperti di intelligenza artificiale

  • Gyles Lewis
  • 0
  • 4623
  • 1376

La comunità dell'intelligenza artificiale (AI) ha un messaggio chiaro per i ricercatori della Corea del Sud: non creare robot assassini.

Quasi 60 esperti di intelligenza artificiale e robotica provenienti da quasi 30 paesi hanno firmato una lettera aperta chiedendo un boicottaggio contro KAIST, un'università pubblica di Daejeon, in Corea del Sud, che è stato riferito di "sviluppare [ing] tecnologie di intelligenza artificiale da applicare ai militari armi, unendosi alla competizione globale per sviluppare armi autonome ", si legge nella lettera aperta.

In altre parole, KAIST potrebbe ricercare come realizzare armi AI di livello militare. [5 motivi per temere i robot]

Secondo la lettera aperta, gli esperti di intelligenza artificiale di tutto il mondo si sono preoccupati quando hanno appreso che KAIST - in collaborazione con Hanwha Systems, la principale azienda di armi della Corea del Sud - ha aperto il 20 febbraio una nuova struttura chiamata Research Center for the Convergence of National Defense and Intelligenza artificiale.

Dato che le Nazioni Unite (ONU) stanno già discutendo su come salvaguardare la comunità internazionale dai robot assassini di intelligenza artificiale, "è deplorevole che un'istituzione prestigiosa come il KAIST cerchi di accelerare la corsa agli armamenti per sviluppare tali armi", hanno scritto i ricercatori nella lettera.

Per scoraggiare fortemente la nuova missione di KAIST, i ricercatori stanno boicottando l'università fino a quando il suo presidente non chiarisce che il centro non svilupperà "armi autonome prive di un controllo umano significativo", hanno detto gli autori della lettera..

Questo boicottaggio sarà onnicomprensivo. "Ad esempio, non visiteremo KAIST, non ospiteremo visitatori di KAIST né contribuiremo a progetti di ricerca che coinvolgono KAIST", hanno detto i ricercatori.

Se KAIST continua a perseguire lo sviluppo di armi autonome, potrebbe portare a una terza rivoluzione nella guerra, hanno detto i ricercatori. Queste armi "hanno il potenziale per essere armi del terrore" e il loro sviluppo potrebbe incoraggiare la guerra a essere combattuta più velocemente e su scala maggiore, hanno detto.

Despoti e terroristi che acquisiscono queste armi potrebbero usarli contro popolazioni innocenti, rimuovendo qualsiasi vincolo etico che i combattenti regolari potrebbero dover affrontare, hanno aggiunto i ricercatori.

Un tale divieto contro le tecnologie mortali non è nuovo. Ad esempio, le Convenzioni di Ginevra vietano alle forze armate di usare armi laser accecanti direttamente contro le persone, come riportato in precedenza. Inoltre, gli agenti nervini come il sarin e il VX sono vietati dalla Convenzione sulle armi chimiche, a cui partecipano più di 190 nazioni.

Tuttavia, non tutti i paesi accettano di coprire protezioni come queste. Hanwha, la società che collabora con KAIST, aiuta a produrre munizioni a grappolo. Tali munizioni sono vietate dalla Convenzione delle Nazioni Unite sulle munizioni a grappolo e più di 100 nazioni (anche se non la Corea del Sud) hanno firmato la convenzione contro di loro, hanno detto i ricercatori.

Hanwha ha dovuto affrontare ripercussioni per le sue azioni; Sulla base di motivi etici, il fondo pensione norvegese da 380 miliardi di dollari distribuito pubblicamente non investe nelle azioni di Hanhwa, hanno detto i ricercatori.

Invece di lavorare su tecnologie di uccisione autonome, KAIST dovrebbe lavorare su dispositivi di intelligenza artificiale che migliorano, non danneggiano, le vite umane, hanno detto i ricercatori.

Nel frattempo, altri ricercatori hanno messo in guardia per anni contro i robot IA assassini, tra cui Elon Musk e il compianto Stephen Hawking.

Articolo originale su .




Nessun utente ha ancora commentato questo articolo.

Gli articoli più interessanti su segreti e scoperte. Molte informazioni utili su tutto
Articoli su scienza, spazio, tecnologia, salute, ambiente, cultura e storia. Spiegare migliaia di argomenti in modo da sapere come funziona tutto