Secondo quanto riportato dalla fonte di oggi, tutti i possessori di un iPhone, iPad o HomePod sono potenzialmente in pericolo.

Pericolo, iPhone, iPad, HomePod, Laser

Un nuovo hack basato sulla tecnologia laser, scoperto per dispositivi con microfoni MEMS, ovvero sistemi microelettromeccanici, rende iPhone, HomePod, Google Home, Amazon Echo più vulnerabili ad attacchi da diverse centinaia di metri di distanza.

Riferito dal famoso sito Ars Technica, il tipo di attacco si chiama “Light Commands”, ed è stato scoperto dai ricercatori dell’Università di Electro-Communications e dell’Università del Michigan. I comandi consentono di hackerare Siri, Google Assistant, Alexa ed altri assistenti vocali da una distanza anche elevata, purché l’attaccante abbia una linea di mira indirizzata verso i microfoni del dispositivo.

Ecco come funziona:

Basta far brillare un laser a bassa potenza in questi sistemi ad attivazione vocale, consentendo agli aggressori di iniettare comandi a loro scelta da una distanza di 110 metri. Poiché i sistemi a comando vocale spesso non richiedono agli utenti di autenticarsi, l’attacco può essere spesso eseguito senza la necessità di password o PIN. Anche quando i sistemi richiedono l’autenticazione per determinate azioni, potrebbe essere fattibile forzare il PIN, poiché molti dispositivi non limitano il numero di ipotesi che un utente può fare. Tra le altre cose, i comandi basati sulla luce possono essere inviati da un edificio all’altro, e penetrare nel vetro quando un dispositivo vulnerabile viene tenuto vicino ad una finestra chiusa.

Come notato da Ars, i ricercatori hanno effettuato test limitati con iPhone, tablet, altoparlanti intelligenti e display intelligenti, ma ritengono che “tutti i dispositivi che utilizzano microfoni MEMS sono sensibili agli attacchi di comandi leggeri”.

I comandi leggeri presentano alcune limitazioni, come una parte “malvagia” che deve avere una linea di mira diretta su un dispositivo, ed essere in grado di posizionare in modo molto preciso un laser sul microfono di un dispositivo.

Tuttavia, i ricercatori hanno effettuato attacchi in condizioni moderatamente realistiche, e la mancanza di autenticazione per gli assistenti vocali, in grado di controllare dispositivi domestici intelligenti come serrature, porte da garage ed altro, rendono queste azioni molto pericolose per noi utenti.

Ancora più interessanti, sono alcuni dei test condotti con solo un puntatore laser da 18$, un driver laser ed un amplificatore audio, per un totale di meno di 400$.

I ricercatori hanno creato un sito web che descrive nel dettaglio come funzionano i Light Commands, e stanno già collaborando con Apple, Google ed Amazon, insieme ad altre aziende del settore iTech, per elaborare diverse “misure difensive”.

Come possiamo proteggerci da ciò? Non possiamo! Dobbiamo solo aspettare che le grandi aziende pongano rimedio.

Fammi sapere la tua! Commenta sui vari Social Network di AppleZein! La tua opinione è importante per me!

Non hai ancora la mia App? Che aspetti? Scaricala per iPhone ed iPad! È GRATIS! http://bit.ly/iAppZein

ISCRIVITI al mio Canale YouTube UFFICIALE! http://bit.ly/2ekhCrr

Entra a far parte della grande famiglia di AppleZein, acquistando anche tu una maglietta, felpa o tazza con il nostro logo http://bit.ly/2IkYcz1

Seguimi su Telegram: https://telegram.me/applezein

Seguimi su Twitter: http://bit.ly/2ejZpWf

Seguimi su Facebook: http://bit.ly/2ehAeFh

Segui AppleZein su Instagram: https://goo.gl/fNmRMl

Segui ME su Instagram: http://bit.ly/313R9Bs

[via]

Share.

Comments are closed.