Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Anonim

Ako umjetna inteligencija padne u pogrešne ruke, civilizirani svijet može uroniti u kaos.

Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera

Nitko neće poreći da umjetna inteligencija može podići naše živote na sljedeću razinu. AI je u stanju riješiti mnoge probleme koji su izvan moći ljudi.

Međutim, mnogi vjeruju da će nas superinteligencija definitivno htjeti uništiti, poput SkyNeta, ili će početi provoditi eksperimente na ljudima, poput GLADOS-a iz igre Portal. Ironija je da samo ljudi mogu umjetnu inteligenciju učiniti dobrom ili zlom.

Zašto umjetna inteligencija može biti ozbiljna prijetnja
Zašto umjetna inteligencija može biti ozbiljna prijetnja

Istraživači sa Sveučilišta Yale, Oxforda, Cambridgea i OpenAI objavili su izvješće o zlouporabi umjetne inteligencije. Kaže da prava opasnost dolazi od hakera. Uz pomoć zlonamjernog koda mogu poremetiti rad automatiziranih sustava pod kontrolom AI.

Istraživači se boje da će dobronamjerne tehnologije biti oštećene. Na primjer, oprema za nadzor može se koristiti ne samo za hvatanje terorista, već i za špijuniranje običnih građana. Istraživači su također zabrinuti zbog komercijalnih dronova koji dostavljaju hranu. Lako ih je presresti i podmetnuti nešto eksplozivno.

Drugi scenarij destruktivne uporabe umjetne inteligencije su samovozeći automobili. Dovoljno je promijeniti nekoliko redaka koda i strojevi će početi zanemarivati sigurnosna pravila.

Zašto umjetna inteligencija može biti ozbiljna prijetnja
Zašto umjetna inteligencija može biti ozbiljna prijetnja

Znanstvenici vjeruju da prijetnja može biti digitalna, fizička i politička.

  • Umjetna inteligencija se već koristi za proučavanje ranjivosti raznih softverskih kodova. U budućnosti, hakeri mogu stvoriti bot koji će zaobići svaku zaštitu.
  • Uz pomoć umjetne inteligencije, osoba može automatizirati mnoge procese: na primjer, kontrolirati roj dronova ili grupu automobila.
  • Uz pomoć tehnologija poput DeepFakea moguće je utjecati na politički život države širenjem lažnih informacija o svjetskim čelnicima pomoću botova na internetu.

Ovi zastrašujući primjeri zasad postoje samo kao hipoteza. Autori studije ne sugeriraju potpuno odbacivanje tehnologije. Umjesto toga, vjeruju da bi nacionalne vlade i velike tvrtke trebale voditi računa o sigurnosti dok je AI industrija još u povojima.

Kreatori politike moraju proučavati tehnologiju i raditi sa stručnjacima u tom području kako bi učinkovito regulirali stvaranje i korištenje umjetne inteligencije.

Programeri pak moraju procijeniti opasnost koju predstavlja visoka tehnologija, predvidjeti najgore posljedice i na njih upozoriti svjetske čelnike. Izvješće poziva programere umjetne inteligencije da se udruže sa sigurnosnim stručnjacima u drugim područjima i vide mogu li se principi koji osiguravaju sigurnost ovih tehnologija koristiti za zaštitu umjetne inteligencije.

Cijelo izvješće opisuje problem detaljnije, ali suština je da je AI moćan alat. Sve zainteresirane strane trebale bi proučiti novu tehnologiju i uvjeriti se da se ne koristi u kriminalne svrhe.

Preporučeni: