¿Estás ligando con robots cuando utilizas Tinder?
El empleo de bots en redes sociales y aplicaciones de citas lleva siendo una constante desde hace años. Según los expertos, esta tecnología está desarrollándose tanto que cada vez es más complicado diferenciar a una persona real de un sistema automatizado

La pandemia ha provocado que conocer gente nueva resulte más complicado que nunca. Y eso ha llevado a que aplicaciones de citas , como Tinder , Badoo u OkCupid se hayan convertido, en muchos casos, en el único medio ... que tiene una persona a su alcance para hacer amigos o iniciar una relación. La (temporal) dificultad de tomar algo en una terraza o salir al cine está provocando que estas herramientas hayan experimentado un crecimiento importante durante los últimos meses. Sin embargo, como muchos de sus usuarios saben, lo que albergan en su interior no siempre es lo que se promete . En ocasiones, ni siquiera hay una persona de carne y hueso tecleando al otro lado de la pantalla.
Internautas y expertos llevan tiempo adviertiendo de que los «bots», que es como se conoce a las cuentas automatizadas, están consiguiendo hacerse un hueco grande en estas plataformas. Y, además, en ocasiones, están siendo empleados por grupos de cibercriminales para robar datos personales y bancarios a sus víctimas sin que se enteren. Match, un grupo que engloba varias "apps" de citas, como Tinder, aseguró en 2019 que «capta y neutraliza» al 85 % de perfiles falsos «antes de que se activen» y que, después, en el plazo de un día, eliminan el 96 %. Y no solo eso, Tinder califica de «porcentaje relativamente pequeño» el que ha llevado a los usuarios a ser «víctimas de actividades delictivas». Sin embargo, la sensación de los usuarios es bien distinta.
Un estudio elaborado por profesores Universidad de Arizona puso de manifiesto en 2018 que un 23,4 % de los perfiles son, realmente, bots. Asimismo, apuntan en sus conclusiones que, en ocasiones, pueden ser muy difíciles de detectar. Y es que los sistemas automatizados cada vez están más desarrollados y, por tanto, son potencialmente más peligrosos .
«Cada vez son más sofisticados y reales e imitan mejor a las personas. También porque cada vez estamos más preparados para diferenciar lo que es un bot de lo que no. La gran revolución que están experimentando en los últimos tiempos es el procesamiento del lenguaje natural. Son capaces de mantener conversaciones sobre cualquier tema con total naturalidad. Hay algunos que, por ejemplo, están entrenados con todo el conocimiento de la Wikipedia. En temas de cultura general te engañarán siempre», explica a ABC Jordi Cabot, investigador del equipo Som Research Lab de la Universidad Oberta de Cataluña .
El experto hace hincapié en que hay bots a disposición de todo el mundo que han sido desarrollados mediante el empleo de varias bases de texto para hacerlos lo más reales posible: «Las grandes tecnológicas han hecho un gran esfuerzo para poner este tipo de tecnología al alcance de la gente. Evidentemente, no para engañar, sino para otro tipo de aplicaciones. A día de hoy no es dificil conseguir un bot capaz de responder preguntas de forma razonable».
En lo que respecta a los bots en redes sociales y aplicaciones de citas, Cabot destaca que, en estos momentos, no son especialmente peligrosos por lo desarrollados que están. Sino porque se están utilizando de forma masiva . «No buscan tanto engañar a una persona concreta. Lo que están haciendo los cibercriminales es lanzarlos a miles. Por pura estadística es muy fácil que consigan engañar a algunos usuarios con menos conocimientos sobre el funcionamiento actual de internet o que es más crédula o está más desesperada por conocer a alguien».
Diferenciar entre víctimas, el siguiente paso
El avance de la tecnología nos ha facilitado la vida enormemente. Pero la dependencia de internet, dispositivos y aplicaciones también nos ha hecho más vulnerables de lo que lo eramos en el pasado. Y es que los cibercriminales no paran de desarrollar nuevos ataques. Tampoco los que emplean bots con fines maliciosos. Recientemente, Europol, el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia (Unicri) y la empresa de ciberseguridad Trend Micro presentaron un informe en el que se analiza cómo los delincuentes están empleando la Inteligencia Artificial (IA) para elaborar ataques y cómo se espera que la utilicen en el futuro.
La ingeniería social, empleada por el cibercriminal para llamar la atención del usuario sobre sus ataques para que caiga en la trampa, es una de las herramientas más empleadas por los delincuentes en internet. Según explica a ABC, David Sancho, jefe de análisis de amenazas de Trend Micro, se espera que en el futuro los delincuentes utilicen la IA para lanzar ataques a gran escala. Esta tecnología, sumada al empleo de bots, podría utilizarse en aplicaciones de citas para que los delincuentes sean capaces de diferenciar a los usuarios que son proclives a caer en sus trampas de los que no .
«Un uso efectivo de la IA para un ciberdelincuente consistiría en recopilar un montón de textos y enviarlos por correo o redes sociales al principio del ataque para que sirvan como gancho. La Inteligencia Artificial podría emplearse para que, en caso de que haya respuesta, el cibercriminal pudiese saber si la víctima es escéptica o si está cayendo en la trampa. Entonces, cuando el sistema cae en la cuenta de que la estafa está funcionando, el delincuente puede tomar las riendas de la conversación para que el proceso sea más personalizado y, de este modo, tener más posibilidades de éxito», explica el experto a este diario.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete