Cali, septiembre 24 de 2025. Actualizado: miércoles, septiembre 24, 2025 18:32
A través de una encuesta realizada a nivel regional, Eset Latinoamérica obtuvo diversos patrones de uso de la Inteligencia Artificial y comparte los principales hallazgos.
Colombia – La Inteligencia Artificial es parte cada vez más preponderante de nuestro día a día, ya sea como fuente de consulta o como herramienta para optimizar cuestiones laborales y de estudio.
Lo cierto es que un uso incorrecto o descuidado de la IA puede exponer a riesgos innecesarios y peligrosos.
Ante este escenario, Eset realizó una encuesta en Latinoamérica para comprender los hábitos de uso y comparte los principales resultados, como también qué aprendizaje se puede obtener respecto de las medidas de seguridad que se utilizan para preservar datos y privacidad, al interactuar con la Inteligencia Artificial.
La encuesta incluyó la participación de más de 1.000 usuarios y usuarias de Venezuela, México, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay.
Uno de los datos destacados de la encuesta es que el 80% indicó usar la IA (45% lo hace frecuentemente, y 35% ocasionalmente).
Asimismo, el 55% afirmó que no chequea siempre la información obtenida. El 14% no lo hace nunca, y el 39% lo hace solamente a veces. Desde Eset destacan que esto puede ser muy riesgoso.
“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (y más en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre es aconsejable contrastar la información obtenida con fuentes oficiales.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de Eset Latinoamérica.
Los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas.
Así, un ciberatacante podría inducir a la IA a responder brindando instrucciones erróneas o proporcionar información falsa.
Otro punto para tener en cuenta es que el 40% afirmó compartir con frecuencia o esporádicamente información personal y laboral con la Inteligencia Artificial (el 17% siempre, y el 25% a veces).
Además, casi el 60% no lee las políticas de privacidad y solo la mitad de las personas toma una medida concreta para proteger su información.
En principio, desde Eset comentan que es aconsejable evitar compartir datos personales y sensibles. Por ejemplo, no ingresar proactivamente información personal, como contraseñas o datos bancarios, en cualquier chat de IA.
Esto se debe a que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos se almacenen y se expongan en el futuro.
Además de no compartir información personal y laboral en este tipo de herramientas, es muy importante tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.
Se recomienda revisar periódicamente términos y políticas de la aplicación, por cualquier nueva opción de seguridad y privacidad que esté disponible.
Fin de los artículos
Ver mapa del sitio | Desarrollado por: