¿Es seguro usar ChatGPT? Conozca sus riesgos y cómo prevenirlos


¿Es seguro usar ChatGPT?

Usar ChatGPT no va a infectar tu computadora, ni mucho menos. Pero los riesgos del chatbot se podrían dividir principalmente en dos: la filtración de tu información o que agentes externos la utilicen para, como dice Hinton, “hacer cosas malas”.

Cuando usa ChatGPT, todas las conversaciones, preguntas y datos revelados se guardan en el sistema. Si un ciberdelincuente accediera a tu perfil de ChatGPT, podría descargar todas tus conversaciones y preguntas, y si has revelado mucha información o información sensible, puedes ponerte en riesgo.

Por ejemplo, en un foro realizado por Hogan y Lovells, compartieron que una de las preocupaciones es que los abogados usen ChatGPT para hacer contratos o documentos de carácter sensible, porque para ser más precisos revelan información precisa o que, en teoría, es secreto. Si esto se filtra, pone a las personas en riesgo.

Además, otro de los riesgos que compartieron en el foro es que el sistema se alimenta precisamente de la información que los propios usuarios le revelan. Entonces, si brinda información privada o confidencial, es posible que el mismo chatbot no conozca y replique esta información, lo que podría generar riesgos. Samsung incluso se lo prohibió a sus empleados debido a estos temores de seguridad.

Por otro lado, la tecnología puede ser utilizada por los ciberdelincuentes para hacer sus ataques más sofisticados.

Hugo Werner, vicepresidente de la empresa de ciberseguridad Akamai para LATAM, compartió que existen tres principales ataques a través de ChatGPT: Phishing, distribución de malware e ingeniería social.

1. Campañas de phishing:

Una de las características de este chatbot es su capacidad para generar texto similar al humano y adaptarse a diferentes idiomas y audiencias de forma casi imperceptible.

Incluso la misma empresa reconoció que es “imposible detectar de forma fiable todo el texto escrito por IA”.

Esta es la razón por la que los ciberdelincuentes lo utilizan para crear correos electrónicos de phishing o redes sociales que parecen provenir de fuentes legítimas. Esto se debe a que los delincuentes también pueden alimentar los ejemplos de chatbot de la vida real con mensajes no maliciosos que quieren suplantar y pedirle a la IA que genere otros nuevos que sean similares, pero con malas intenciones.

Estas campañas sirven para engañar a los usuarios para que revelen información personal o den dinero.

2. Distribución de malware

ChatGPT puede generar código y adaptarse a diferentes lenguajes de programación. Con el mensaje correcto, los autores de malware novatos pueden describir lo que quieren hacer y obtener fragmentos de código que realmente funcionan.

Un ejemplo es generar código para detectar cuándo se copia una dirección de billetera de bitcoin en el portapapeles para que pueda ser reemplazada por una dirección maliciosa controlada por el autor del malware.

Como resultado, puede ver un aumento en el número y la sofisticación del malware.

3. Ingeniería social

Aunque es más difícil que ocurra específicamente con ChatGPT, los chatbots en general pueden usarse para robar información personal y así causar un daño mayor.

Por ejemplo, si estás realizando compras en una página web, un chatbot haciéndose pasar por ChatGPT puede solicitar tus datos bancarios, dirección, nombre, entre otros. Si no es una página oficial y certificada, esa información acabará en manos de los ciberdelincuentes.

4. La creación de deepfakes

La empresa de ciberseguridad NordVPN compartió un cuarto riesgo, y es la creación de información errónea a gran escala y a costos mucho más bajos.

Por ejemplo, la creación de textos con el fin de desinformar, reseñas falsas o utilizar estas herramientas para crear campañas masivas de bullying o acoso en las redes sociales.

¿Cómo prevenir los riesgos de ciberseguridad con ChatGPT?

Existen algunas herramientas que puede usar para averiguar si un texto se creó con IA o no. Por ejemplo, originality.AI le permite saber si un texto se creó con Chat GPT, GPT-2, GPT-3, GPT-4 o Bard. GPTZero es otra opción.

Sin embargo, Werner menciona que si bien es una tecnología nueva, no debemos dejar de implementar las medidas de ciberseguridad que ya conocemos, como no hacer clic en mensajes de remitentes desconocidos; asegúrese de que los sitios web estén certificados, no revelen información personal o bancaria que no sean páginas certificadas y oficiales.

NordVPN también recomienda siempre autenticar su información y ser extremadamente cuidadoso al hacer clic en enlaces o proporcionar información personal como números de teléfono, correos electrónicos o mensajes. “En caso de duda, llame directamente a la empresa o comuníquese a través de los canales oficiales”, compartieron.

También recomiendan mantener su software actualizado y con un antivirus.

Similar Posts

Leave a Reply