La Inteligencia Artificial (IA) se ha convertido en una herramienta cotidiana para millones de personas en Latinoamérica, utilizada tanto en el trabajo como en los estudios o en la vida personal. Sin embargo, su uso creciente también trae consigo ciertos riesgos cuando no se aplican buenas prácticas de seguridad digital. Así lo revela una encuesta realizada por ESET, compañía especializada en ciberseguridad, que analizó cómo la población de la región interactúa con estas tecnologías y qué preocupaciones genera su uso.
El relevamiento incluyó a más de mil usuarios de países como Argentina, México, Colombia, Perú, Chile, Venezuela, entre otros. Los resultados permiten observar una alta penetración de la IA en el día a día, pero también evidencian comportamientos descuidados, como el hecho de no verificar la información obtenida o compartir datos sensibles en chats de estas plataformas.
Uno de los hallazgos principales es que ocho de cada diez personas ya utilizan la IA en algún grado: el 45% lo hace con frecuencia y el 35% de manera ocasional. Además, más de la mitad de los consultados admite que no comprueba la veracidad de las respuestas, lo que, según los especialistas, puede exponer a errores y situaciones riesgosas.
El informe de ESET advierte que la falta de chequeo de la información es una de las conductas más preocupantes. Un 14% de los encuestados señaló que nunca contrasta los resultados con fuentes confiables, y un 39% dijo que solo lo hace algunas veces. En temáticas sensibles como salud, finanzas o cuestiones legales, esta práctica puede tener consecuencias serias.
“Los modelos de IA son útiles, pero no infalibles. Pueden equivocarse o estar sesgados. Por eso es clave cotejar los datos con fuentes oficiales antes de tomarlos como válidos”, explicó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
A esto se suma la posibilidad de que las herramientas de IA sean manipuladas a través de ataques conocidos como prompt injection, donde un usuario malicioso logra que el sistema entregue respuestas erróneas o instrucciones dañinas. Este tipo de vulnerabilidades refuerza la necesidad de un uso crítico.
Otro aspecto señalado por el estudio es la tendencia a compartir información personal o laboral con la IA. El 17% reconoció hacerlo siempre, y un 25% lo hace de forma esporádica. En paralelo, casi seis de cada diez usuarios no leen las políticas de privacidad de las aplicaciones que emplean, y solo la mitad adopta alguna medida de protección para resguardar sus datos.
ESET subraya que este hábito aumenta los riesgos, ya que muchos sistemas de IA pueden procesar, almacenar o incluso utilizar la información para entrenar futuros modelos. Ingresar contraseñas, números de tarjetas bancarias o datos sensibles puede dejar huellas difíciles de eliminar y exponer la privacidad de los usuarios.
La compañía recomienda minimizar la entrega de datos en estas plataformas, revisar periódicamente las configuraciones de privacidad y estar atentos a cambios en las políticas de seguridad de los servicios utilizados.
Más allá de los riesgos, la encuesta muestra que la mayoría de los participantes valora positivamente a la IA: un 80% considera que tendrá un impacto favorable en el futuro. No obstante, el 43% cree que, aunque será útil, traerá riesgos asociados.
Entre las principales preocupaciones destacan el temor a fraudes y estafas (65%), la proliferación de deepfakes y noticias falsas (47%) y la pérdida de privacidad por la recolección de datos (45%).
En el caso de los fraudes, los investigadores remarcan que la IA ya está siendo utilizada por los ciberdelincuentes para generar correos de phishing mucho más convincentes, además de audios falsos capaces de imitar voces con apenas unos segundos de grabación. Esto aumenta las probabilidades de engaños y de que las víctimas entreguen información sensible.