Noticia Tecnología

El 45,5% de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT

Por Redacción - 20 Diciembre 2023

Un informe de Kaspersky realizado entre directivos españoles revela el aumento de la preocupación de los altos cargos de las empresas por los riesgos que supone el uso de sistemas de Inteligencia Artificial Generativa (GenIA), como Chat GPT, por la posible pérdida de información confidencial y el control comercial. El 96% de los encuestados en España cree que sus empleados utilizan regularmente este tipo de sistemas.

La Inteligencia Artificial Generativa se ha convertido en un aliado empresarial capaz de automatizar procesos y realizar un amplio abanico de tareas, pero la alta dirección de las empresas desconfía por los riesgos de seguridad que puede implicar para el negocio.

Del total de los directivos encuestados por Kaspersky en España, solo el 19% ha debatido la imposición de reglas para controlar el uso de Inteligencia Artificial Generativa, a pesar de que el 95% afirma que es necesario un mayor conocimiento del uso que los empleados hacen de esta tecnología para estar protegidos frente a riesgos de seguridad críticos o fugas de datos. La cosa va más allá: un 64% teme pérdidas económicas en las organizaciones.

Otro estudio de Kaspersky entre los usuarios empresariales de la Inteligencia Artificial Generativa de nuestro país desvela que el 25% de quienes usan Chat GPT en el trabajo, el sistema de Inteligencia Artificial Generativa más popular, no sabe lo que pasa con los datos que introduce en la herramienta. Hay que destacar que Chat GPT puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.

La concienciación y regulación por parte de las empresas juega un papel importante para mantener segura la información, pero, según los empleados encuestados, el 45,5% de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT. Un 19% dice que sí hay normas, pero no suficientemente claras; un 7% señala que las normas son claras, pero no se cumplen; y solo en un 27% son claras y, además, se cumplen.

Son datos paradójicos si se tiene en cuenta que la mitad de los directivos españoles tiene planes a futuro para utilizar GenIA y automatizar tareas. El 46% señaló su intención de integrar esta tecnología en sus propias rutinas para mejorar la productividad, y también en las de los empleados (43%).

“GenIA ofrece enormes beneficios de productividad a las empresas. Nuestros análisis revelan que los directivos han detectado su presencia en las organizaciones, si bien reconocen que el alcance de su uso es un misterio. Los sistemas Inteligencia Artificial Generativa se encuentran en claro crecimiento, y cuanto más tiempo funcionen sin control más difícil será proteger áreas del negocio como recursos humanos, finanzas, marketing o incluso TI”, alerta David Emm, analista principal de Seguridad de Kaspersky.

A pesar de todo esto, el 16% de los españoles que usa Chat GPT en el trabajo considera que no es importante mantener la privacidad en las preguntas que realizan al chatbot, y el 31% considera que es importante no compartir datos privados, pero aun así lo hace.

Chat GPT asegura que no comparte la información facilitada por el usuario con terceros. Solo la retiene para mejorar la plataforma y proporcionar respuestas lo más precisas posibles, usando los datos recopilados para mejorar el modelo de lenguaje y afinar al máximo la experiencia del usuario. “Sin embargo, hay que tener en cuenta que la política de privacidad de Chat GPT se refiere únicamente al uso de los datos de los usuarios registrados en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve”, explica Marc Rivero, Senior Security Researcher de Kaspersky.

Es importante reconocer el riesgo potencial asociado con la introducción de información confidencial en Chat GPT, ya que los ciberdelincuentes aprovechan esta herramienta para generar código malicioso y estafas de phishing altamente creíbles. En este sentido, los expertos aconsejan evitar introducir información delicada, tanto personal como corporativa, que pueda ser susceptible de caer en manos de ciberdelincuentes. En el caso de empresas, se sugiere establecer normas internas que regulen el uso de Chat GPT y concienciar a los empleados sobre la importancia de no compartir ciertos datos, brindando educación en ciberseguridad. Además, se recomienda precaución al recibir enlaces de sitios web desconocidos, ya que estos pueden contener programas maliciosos o redirigir a sitios de phishing. Estos enfoques ayudarán a mitigar los riesgos asociados con el uso de Chat GPT y protegerse contra posibles amenazas cibernéticas.

Más Leídos
Continua Leyendo...
Contenidos Patrocinados
ADS
Promocionados