Cali, septiembre 24 de 2025. Actualizado: miércoles, septiembre 24, 2025 18:32

TEMAS DESTACADOS:

Hábitos sobre la IA

El 80% de las personas usa la IA, pero más de la mitad no revisa la información obtenida

A través de una encuesta realizada a nivel regional, Eset Latinoamérica obtuvo diversos patrones de uso de la Inteligencia Artificial y comparte los principales hallazgos.

Colombia –­ La Inteligencia Artificial es parte cada vez más preponderante de nuestro día a día, ya sea como fuente de consulta o como herramienta para optimizar cuestiones laborales y de estudio.

Lo cierto es que un uso incorrecto o descuidado de la IA puede exponer a riesgos innecesarios y peligrosos.

Ante este escenario, Eset realizó una encuesta en Latinoamérica para comprender los hábitos de uso y comparte los principales resultados, como también qué aprendizaje se puede obtener respecto de las medidas de seguridad que se utilizan para preservar datos y privacidad, al interactuar con la Inteligencia Artificial.

La encuesta incluyó la participación de más de 1.000 usuarios y usuarias de Venezuela, México, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay.

Uno de los datos destacados de la encuesta es que el 80% indicó usar la IA (45% lo hace frecuentemente, y 35% ocasionalmente).

Asimismo, el 55% afirmó que no chequea siempre la información obtenida. El 14% no lo hace nunca, y el 39% lo hace solamente a veces. Desde Eset destacan que esto puede ser muy riesgoso.

“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (y más en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre es aconsejable contrastar la información obtenida con fuentes oficiales.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de Eset Latinoamérica.

Los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas.

Así, un ciberatacante podría inducir a la IA a responder brindando instrucciones erróneas o proporcionar información falsa.

Compartir información

Otro punto para tener en cuenta es que el 40% afirmó compartir con frecuencia o esporádicamente información personal y laboral con la Inteligencia Artificial (el 17% siempre, y el 25% a veces).

Además, casi el 60% no lee las políticas de privacidad y solo la mitad de las personas toma una medida concreta para proteger su información.

En principio, desde Eset comentan que es aconsejable evitar compartir datos personales y sensibles. Por ejemplo, no ingresar proactivamente información personal, como contraseñas o datos bancarios, en cualquier chat de IA.

Esto se debe a que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos se almacenen y se expongan en el futuro.

Además de no compartir información personal y laboral en este tipo de herramientas, es muy importante tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.

Se recomienda revisar periódicamente términos y políticas de la aplicación, por cualquier nueva opción de seguridad y privacidad que esté disponible.


Banner Canal WhatsApp

Comments

Cargando Artículo siguiente ...

Fin de los artículos

pdf diario

Destacado

PUBLICIDAD
Publicidad
Publicidad
Diario Occidente

Una publicación diaria del Nuevo Diario Occidente S.A. Fundado el 19 de noviembre de 1961

© 1961 - 2025. NUEVO DIARIO OCCIDENTE S.A.
Prohibida su reproducción total o parcial, así como su traducción a cualquier idioma sin autorización escrita del titular.

Ver mapa del sitio | Desarrollado por: