Puede ser utilizado por los ciberdelincuentes

INCIBE advierte sobre los riesgos del mal uso de la inteligencia artificial para los negocios

Tras el auge de ChatGPT, el motor de inteligencia artificial más famoso, el Instituto Nacional de Ciberseguridad de España (INCIBE) ha advertido sobre los riesgos que el mal uso de esta tecnología puede suponer para las empresas y qué medidas se recomienda tomar.
INCIBE advierte sobre los riesgos que podría implicar para las empresas el mal uso de ChatGPT
INCIBE advierte sobre los riesgos que podría implicar para las empresas el mal uso de ChatGPT
INCIBE advierte sobre los riesgos del mal uso de la inteligencia artificial para los negocios

La Inteligencia Artificial ha dejado de formar parte de la ciencia ficción y cada día es más utilizada por las empresas con diferentes fines. En las últimas semanas, se ha hablado mucho de ChatGPT-4, una tecnología que ha irrumpido de forma drástica en la sociedad enseñando el gran alcance que puede llegar a tener la Inteligencia Artificial.

Este tipo de herramientas han demostrado ser de gran utilidad para las empresas y autónomos, ya que permiten resolver dudas a clientes de forma automatizada, implementar búsquedas a través de imágenes o tomar decisiones estratégicas en base a los datos obtenidos, entre otros. 

Desde el Instituto Nacional de Ciberseguridad de España (INCIBE) señalaron que, aunque la herramienta ChatGPT “puede ofrecer muchos beneficios si se utiliza correctamente, algunos usuarios malintencionados podrían usar esta tecnología con fines delictivos”.

Ante esto, desde la entidad dependiente del Ministerio de Asuntos Económicos y Transformación Digital explicaron cuáles son los riesgos que puede suponer ChatGPT para las empresas si se hace un mal uso de esta herramienta, así como las medidas que pueden tomar los autónomos para hacer un mejor uso de esta Inteligencia Artificial. 

Qué es ChatGPT y qué puede aportar a las empresas y autónomos 

Tal y como explicaron desde INCIBE, a lo largo de los años, “las máquinas han aprendido y han conseguido llegar a razonar casi como lo haría un cerebro humano”. Como consecuencia de dicho avance nació ChatGPT, un modelo de lenguaje creado por “OpenAI”. 

Esta tecnología, señalaron desde INCIBE, “se basa en el aprendizaje profundo, y su función es responder preguntas y generar texto a partir de las entradas recibidas”. ChatGPT trabaja en varios idiomas, procesando el lenguaje y aprendiendo de la interacción humana.

“Las posibilidades que ofrece esta tecnología son infinitas. La velocidad con la que desarrolla las respuestas y la calidad de las mismas nos hace plantearnos si, antes de lo que pensamos, esta herramienta o alguna similar, podría desbancar a los principales buscadores de Internet”, indicaron desde INCIBE.

Hoy en día, cada vez más autónomos y empresas de todos los tamaños deciden recurrir a la Inteligencia Artificial para automatizar procesos, ya que “puede ser muy beneficioso” para distintas áreas de negocio, como la atención al cliente, el análisis de datos, la generación de nuevo contenido o la traducción de textos, entre otros. 

Sin embargo, destacaron desde INCIBE, “aunque los beneficios de ChatGPT en el entorno empresarial son múltiples, su uso también entraña una serie de riesgos”. Al igual que esta tecnología avanza “a un ritmo frenético”, la ciberdelincuencia también lo hace.  

Riesgos que puede suponer ChatGPT para las empresas

Según destacaron desde el Instituto Nacional de Ciberseguridad de España, “algunos usuarios malintencionados” podrían utilizar ChatGPT con fines delictivos, ya que, como en otras herramientas, “existen varios vectores de ataque que los ciberdelincuentes pueden aprovechar para explotar vulnerabilidades y atacar a posibles víctimas”. 

Uno de los principales usos “malintencionados” de ChatGPT que podría hacerse y que podría tener importantes consecuencias negativas para un negocio o empresa es la creación de mensajes fraudulentos. 

“Un ciberdelincuente podría ayudarse de ChatGPT para desarrollar un correo electrónico o mensaje en el que se suplante la identidad de otra persona o empresa para engañar a las posibles víctimas”, explicaron desde INCIBE. De hecho, para demostrar su alcance, desde la entidad realizaron una prueba solicitando a la Inteligencia Artificial la redacción de un correo electrónico suplantando la identidad de un banco. El resultado fue idéntico. 

“Apoyándose en la herramienta, los ciberdelincuentes podrían obtener información más específica sobre la empresa a la que quieren atacar. De esta forma, logran hacer el mensaje más creíble y hay más posibilidades de que la víctima «muerda el anzuelo»”, señalaron desde INCIBE.

Asimismo, añadieron, la tecnología ChatGPT podría ser utilizada para redactar noticias falsas, conocidas como “fake news”, de manera que se podría manipular la opinión pública. 

“La difusión de desinformación podría poner en riesgo la reputación de una empresa y, por tanto, afectar a la imagen que los clientes tienen sobre ella, generando una pérdida de confianza”, explicaron desde INCIBE.

Por último, destacaron, esta tecnología no solo es capaz de generar texto, sino que también puede desarrollar código en diferentes lenguajes de programación. De esta forma, explicaron, los delincuentes pueden usarlo para crear software malicioso.

“Aunque ChatGPT está dotado de protocolos de seguridad que le impiden responder a ciertas solicitudes malintencionadas, puede permitir a alguien sin conocimientos técnicos desarrollar scripts de todo tipo, eludiendo las restricciones existentes”, explicaron. 

Los autónomos deben concienciar a los empleados de los riesgos existentes de ChatGPT

En un momento en el que la Inteligencia Artificial está cada vez más presente para las empresas y autónomos, y teniendo en cuenta los riesgos que esto puede conllevar y el aumento en los últimos años de los ciberataques a pequeñas y medianas empresas, desde INCIBE explicaron también cuáles son las medidas que pueden tomar los autónomos y negocios para hacer un buen uso de ChatGPT y evitar poner en riesgo la continuidad de la empresa. 

En primer lugar, destacaron, “es necesario verificar siempre la autenticidad de los mensajes recibidos y asegurarse de que procede de una fuente fiable”. En cualquier caso, añadieron, hay que evitar proporcionar datos personales, sensibles o bancarios a través de esta herramienta

Asimismo, y como ya vienen advirtiendo desde hace años, es imprescindible no acceder a enlaces sospechosos o poco fiables. Hacer uso de contraseñas “robustas” y actualizarlas de forma regular es también un factor importante para evitar un ataque procedente de un mal uso de esta herramienta.

Por último, hay que concienciar a los empleados sobre los riesgos existentes “y hacerles llegar estos consejos”. Sólo así podrá evitarse que la empresa o negocios sea víctima de un ataque a través de sus trabajadores

Pese a los riesgos que esta tecnología lleva implícitos, desde INCIBE recordaron que “todo apunta a que la calidad de la herramienta avanzará exponencialmente”, por lo que conociendo los riesgos que implica y sabiendo cómo mitigarlos, “supondrá grandes beneficios para las empresas”.

Además, explicaron, el último lanzamiento de ChatGPT, la versión ChatGPT-4, “promete una versión más segura con la que se pueden mitigar algunos de estos riesgos y con la que se pretenden reducir las solicitudes mal intencionadas”.