Sigurnosni rizik Amazon Alexa omogućuje hakerima da preuzmu glasovne naredbe i kradu privatne podatke

Sigurnost / Sigurnosni rizik Amazon Alexa omogućuje hakerima da preuzmu glasovne naredbe i kradu privatne podatke

UIUC otkrio novu prijetnju nazvanu 'Skout squill'

1 minuta čitanja Amazon Alexa

Amazon Echo



Svijet se mijenja i u modernoj eri iz dana u dan postajemo pouzdani u svoje uređaje za Internet stvari. Ali ta bi nas povezanost mogla koštati svega, mogla bi dopustiti nekome da nam ukrade identitet, bankovne podatke, povijest bolesti i što sve ne.

Amazon Alexa kritiziran je zbog brojnih sigurnosnih propusta, ali Amazon se brzo rješava. Međutim, ova nova sigurnosna greška možda uopće neće imati popravak. A ovo bi mogla biti najopasnija sigurnosna prijetnja do sada.



Prema istraživanju koje provodi Sveučilište Illinois u Urbana-Champaign (UIUC), idiosinkrazije Amazone Alexa mogu se iskoristiti glasovnim naredbama za usmjeravanje korisnika na zlonamjerne web stranice. Hakeri ciljaju rupe u algoritmima strojnog učenja kako bi pristupili privatnim informacijama.



Metodu nazvanu 'Skill squatting' stvorili su istraživači sa Sveučilišta Illinois u Urbana-Champaignu i uspješna je metoda kojom se Amazon Alexa prevari da usmjerava korisnike na zlonamjerne platforme pomoću glasovnih naredbi na uređajima Amazon Echo.



Mnogi korisnici često pogrešno izgovaraju riječi što često rezultira pogreškama u interpretaciji Alexa, govornog mehanizma koji pokreće Amazon Echo. Istraživači su koristili 11.460 uzoraka govora iz riječi na engleskom jeziku koje su govorili Amerikanci.

Zatim su proučavali gdje je Alexa pogrešno protumačila glasovne naredbe, koliko često to čini i zašto. Uspjeli su otkriti da se određene pogrešne interpretacije redovito događaju.

Dakle, koristeći 'Skill squatting', haker može koristiti ove sustavne pogreške za usmjeravanje korisnika Amazon Echoa na zlonamjerne aplikacije, web stranice i riskirati njihove privatne podatke. Metoda se može koristiti za ciljanje određenih demografskih podataka, posebno onih koji ne govore tečno engleski jezik.



U inačici napada koju nazivamo čučanje koplja, nadalje pokazujemo da se ovaj napad može ciljati na određene demografske skupine. Zaključujemo raspravom o sigurnosnim implikacijama pogrešaka u interpretaciji govora, protumjerama i budućem radu.

Problem možda nije lako riješiti, jer ovisi o samim principima strojnog učenja na kojima su izgrađeni Alexa i drugi AI strojevi. Amazon tvrdi da ima uspostavljene mjere za suzbijanje ovog problema, ali istraživanja Sveučilišta Illinois kažu suprotno.

Tvrde da ovo neće biti lako popraviti i da će donijeti ozbiljne probleme u budućnosti.

Oznake Alexa Amazon