Droni e veicoli senza pilota come arma: il motivo per cui abbiamo bisogno di avere paura di hacker
Della Tecnologia / / December 19, 2019
Nessuno può negare che l'intelligenza artificiale può mettere la nostra vita su nuovo livello. AI è in grado di risolvere molti problemi che sono al di là del potere dell'uomo.
Tuttavia, molti credono che la superintelligenza vorrà distruggerci, come SkyNet, o iniziare a condurre esperimenti sulle persone come GLaDOS dal gioco Portal. L'ironia è che per fare un'intelligenza artificiale può solo persone bene o male.
I ricercatori di Yale, Oxford, Cambridge, e la società ha registrato OpenAI rapporto sull'abuso di intelligenza artificiale. Si dice che il vero pericolo viene dagli hacker. Con l'aiuto di codice dannoso, che possono disturbare il funzionamento di sistemi automatizzati sotto controllo AI.
I ricercatori temono che la tecnologia creata con buone intenzioni, sarà utilizzato per danno. Per esempio, la sorveglianza può essere applicato non solo per catturare i terroristi, ma anche per spiare i cittadini comuni. I ricercatori hanno anche preoccupanti droni commerciali, che offrono cibo. Sono facili da intercettare e mettere un qualcosa di esplosivo.
Un altro scenario è uso distruttivo di AI - veicoli senza pilota. E 'sufficiente cambiare un paio di righe di codice, e la macchina inizierà a ignorare le norme di sicurezza.
Gli scienziati ritengono che la minaccia può essere digitale, fisica e politica.
- L'intelligenza artificiale è già utilizzato per studiare le vulnerabilità dei vari codici di programma. In futuro, gli hacker potrebbero creare tale bot, che consentirà di bypassare alcuna protezione.
- Con AI persona può automatizzare molti processi: per esempio, per controllare uno sciame di fuchi, o un gruppo di veicoli.
- Con tecnologie come DeepFake, in grado di influenzare la vita politica dello stato, diffusione di informazioni false sui leader del mondo attraverso i bot di internet.
Questi esempi spaventosi esistono solo come ipotesi. Gli autori dello studio non offrono un rifiuto completo della tecnologia. Al contrario, essi credono che i governi e le grandi aziende dovrebbero prendersi cura della sicurezza, mentre l'industria intelligenza artificiale infanzia.
I politici dovrebbero imparare la tecnologia e il lavoro insieme con esperti del settore, per regolare in modo efficace la creazione e l'uso di intelligenza artificiale.
Gli sviluppatori, a loro volta, dovrebbero valutare il pericolo rappresentato da alta tecnologia, per anticipare e prevenire le peggiori conseguenze di questi leader mondiali. Le chiamate di rapporto per gli sviluppatori AI: squadra con esperti di sicurezza in altre zone e per sapere se è possibile utilizzare i principi che garantiscono la sicurezza di queste tecnologie per la protezione dei artificiale intelligenza.
Report completo descrive il problema in modo più dettagliato, ma il fatto che l'intelligenza artificiale - un potente strumento. Tutte le parti interessate hanno bisogno di imparare una nuova tecnologia e assicurarsi che non venga utilizzato per scopi criminali.