Inicio Noticias Descubren cómo controlar Siri con comandos subliminales inaudibles

Descubren cómo controlar Siri con comandos subliminales inaudibles

Compartir
Siri podría tener respuestas predeterminas para contestar por ti al teléfono

Los asistentes virtuales ya forman parte de nuestras vidas diarias. Bien es cierto que la mayoría tenemos Siri, Google Assistant, Alexa, etc, en nuestros dispositivos y a veces prescindimos de ellos y ni los invocamos. Pero… ¿qué pasaría si otras personas o hackers los manejaran por nosotros sin que nos enteráramos?.

Varios investigadores de Estados Unidos y China han estado realizando diferentes pruebas para demostrar que “los comandos ocultos o aquellos que son indetectables por el oído humano”, pueden llegar a controlar asistentes virtuales y de inteligencia artificial como Siri o Alexa. Con este control, obligarían al asistente a realizar acciones que sus dueños NUNCA hubieran dicho a sus dispositivos, asusta ¿verdad?.

¿Qué han descubierto los investigadores?

Dados los informes por The New York Times, hemos podido saber que varios investigadores (estudiantes de la universidades de California, Berkeley y Georgetown) han detectado que los asistentes virtuales son dóciles ante comandos subliminales “inapreciables para el usuario” escondidos en cualquier vídeo, canción, o en ruido blanco.

Descubren como manejar Siri, Alexa y Google Assitant con comandos inauidibles para el ser humano

Afirman que podrían poner en riesgo la seguridad de los usuarios que posean altavoces inteligentes, los iPhone con Siri y dispositivos con Google Assistant. Además, explican que los asistentes no están siendo hackeados sino engañados por lo que podrían actuar en segundo plano añadiendo instrucciones para agregar algo a la cesta de la compra. Pero también a su vez (y muy peligroso) abrir sitios web, marcar números de teléfono, desbloquear puertas, transferir dinero desde tu banco, o comprar en línea sin autorización del dueño. Yo por si acaso voy a ir desactivando Siri de mi iPhone (es broma).

Al poseer un smartphone o altavoz inteligente en el hogar, la cosa se puede poner seria ya que un atacante podría encender luces, o apagar a su antojo. Incluso bloquear, o abrir cerraduras si tu casa está domotizada y adaptada con un altavoz como el Amazon Echo y su asistente Alexa.

Siri, estamos en peligro

En el siguiente vídeo, se muestra un ejemplo del año pasado de unos investigadores de la Universidad de Princeton y de la universidad de Zheijiang en China. Un ataque denominado DolphinAttack el cual mediante un transimisor emiten comandos de voz a unas frecuencias que los humanos no podemos escuchar. La limitación de esta técnica es que se necesita estar relativamente cerca del dispositivo para actuar, por lo que cualquiera cercano a ti podría atacarte sin que lo escuches.

Es cierto que Apple por razones de seguridad, es muy estricta con ciertos comandos de Siri relacionados con HomeKit. Por eso, si quieres abrir una puerta bloqueada con un candado inteligente mediante Siri, el usuario deberá introducir siempre su contraseña para poder emitir el comando desde su iPhone o iPad, algo que tranquiliza bastante. En el caso del HomePod, de momento carece intencionadamente de esta característica.

Los investigadores indican que no hay indicios hasta el momento de que se hayan producido ataques de este tipo, pero está bien que las compañías y fabricantes tomen nota para cortar por lo sano y tomar medidas de seguridad ante este problema aunque el comando indiscreto no se escuche (modo ironía ON).

Seguro que ya hay vídeos en YouTube probando este Dolphin Attack, y a vosotros… ¿que os parece este “agujero” de seguridad inaudible?. Os espero en los comentarios. Salu2 :D