Los riesgos de caer en estafas con la inteligencia Artificial

Mientras OpenAI iniciaba su rápido ascenso dentro de la Inteligencia Artificial, se observaron varios casos de amenazas.

Desde el lanzamiento en marzo de una nueva versión de ChatGPT por parte de la compañía OpenAI, han crecido los ciberataques a esta plataforma. Esto se debe en parte al crecimiento masivo de usuarios de la denominada Inteligencia Artificial.

Para entender este movimiento, los investigadores de Unit 42, la unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks, están monitorizando los trending topics, los dominios recién registrados y los dominios ocupados relacionados con ChatGPT.

Según dicho seguimiento de Unit 42, «entre noviembre de 2022 y principios de abril de 2023, se produjo un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT«. Además, los investigadores también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT.

«También se incrementó el uso de chatbots imitadores para animar a los usuarios de ChatGPT a acercarse a estos con una mentalidad defensiva», afirma Germán Rincón, Country Manager para Colombia, Ecuador y Venezuela de Palo Alto Networks.

Por lo tanto, mientras OpenAI iniciaba su rápido ascenso para convertirse en una de las marcas más famosas dentro de la inteligencia artificial, se observaron varios casos de amenazas que registraban y utilizaban dominios fraudulentos en estado salvaje que utilizaban «openAI» y «ChatGPT» como nombre. dominio (por ejemplo, openai[.]us, openai[.]xyz y chatgpt[.]jobs).

La mayoría de estos dominios no han alojado nada malicioso desde principios de abril de 2023, pero es preocupante que no estén controlados por OpenAI u otras empresas auténticas de gestión de dominios y que estén siempre a punto de causar daños.

Casos prácticos de estafa que se aprovechan de la fama de ChatGPT

Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware o compartan información confidencial.

Una técnica habitual que utilizan los estafadores para distribuir malware es presentar a los usuarios un botón «DESCARGAR PARA WINDOWS» que, una vez pulsado, descarga malware troyano, que es un programa malicioso que infecta dispositivos como si fuera un programa legítimo sin que las víctimas perciban el riesgo.

Además, los estafadores pueden utilizar la ingeniería social relacionada con ChatGPT para el robo de identidad o el fraude financiero. A pesar de que OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, los estafadores conducen a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios.

En este sentido, por ejemplo, el sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico.

Los especialistas también han observado que algunos estafadores se aprovechan de la creciente popularidad de OpenAI para obtener criptomonedas. Se pudo identificar a un estafador que abusaba del logotipo de OpenAI y del nombre de Elon Musk para atraer a las víctimas a un evento fraudulento de distribución de criptodivisas.

Lo mismo puede ocurrir en redes sociales como YouTube donde se pueden crear cuentas falsas de OpenAI o secuestrar algunas ya existentes y cambiarles el nombre para luego inducir a las personas a tomar algún tipo de inversión o estafas similares.