Robot sul campo di battaglia: Georgia Tech professore ritiene che AI può giocare un ruolo fondamentale

0
98

Zero

artificial-intelligence-job-killer-or-your-next-boss-1.png

Un pegno contro l’uso di autonoma armi stata nel mese di luglio, firmata da più di 2.400 persone che lavorano nel campo dell’intelligenza artificiale (AI) e la robotica in rappresentanza di 150 aziende provenienti da 90 paesi.

L’impegno, sottoscritto al 2018 International Joint Conference on Artificial Intelligence (IJCAI) a Stoccolma e organizzato dal Futuro dell’Istituto per la Vita, ha invitato i governi, le università e l’industria, per “creare un futuro con forti internazionali, norme, regolamenti e leggi contro la letale autonoma armi”.

L’istituto definisce letale autonomi sistemi di armi, conosciuta anche come “robot killer” — come armi in grado di identificare, target, e uccidere una persona, senza un uomo “in-the-loop”.

Ma secondo il Professor Ronald C Arkin, un Regents Professore e Direttore del Robot Mobile di Laboratorio presso il Georgia Institute of Technology, l’assoluto divieto di robot e l’IA non è il modo migliore per andare avanti.

Arkin ha detto D61+ Live mercoledì che invece di vietare sistemi autonomi in zone di guerra, che invece dovrebbe essere guidata da una forte giuridici e legislativi direttive.

Egli non è solo. Citando un recente sondaggio di più di 27.000 persone dalla Commissione Europea, Arkin ha detto il 60 per cento degli intervistati ritiene che i robot non deve essere utilizzato per la cura di bambini, anziani e disabili, anche se questo è lo spazio che la maggior parte roboticisti sta giocando.

Nonostante il killer robot retorica, solo il 7% degli intervistati pensa che i robot dovrebbe essere vietato per scopi militari.

Le Nazioni Unite, dopo sei anni di ufficialmente a lavorare su di esso, tuttavia, è ancora da definire che cos’è un letale autonoma arma è, o ciò che di significativo controllo umano, figuriamoci sviluppare un quadro etico per le nazioni di seguire le loro robotica militare push.

“Come facciamo a garantire che si comportano bene, che seguono il nostro morale e norma etica? Che in questo caso sono codificati, non solo di norme, ma come leggi, diritto internazionale umanitario, che è la legge che determina l’etica e giuridica modo per uccidersi l’un l’altro in battaglia”, Arkin ha spiegato. “È una cosa strana che abbiamo speso migliaia di anni, fino a venire con questi codici per trovare metodi accettabili per uccidersi l’un l’altro.”

Ci sono circa 60 le nazioni attualmente lavorando sull’applicazione della robotica in guerra, compresi gli Stati Uniti, Cina, Corea del Sud e Israele, ma secondo Arkin, molti dei schierato piattaforme stanno già diventando letale.