Inteligencia Artificial: Los Peligros Confiar y Depender Demasiado
- marketing digital gs3
- 10 jul
- 5 Min. de lectura
La Inteligencia Artificial (IA) ha transformado rápidamente nuestra vida diaria y en los últimos años ha demostrado su potencial para mejorar la calidad de vida. Pero como toda tecnología poderosa, también tiene grandes riesgos. Uno de los más preocupantes es su uso malintencionado para manipular o incluso chantajear a las personas.

Aspectos positivos

En la salud
Diagnósticos más precisos gracias al análisis de grandes volúmenes de datos médicos.

En la educación
Las plataformas pueden adaptar el contenido según el ritmo de aprendizaje del estudiante, así como ayudar a investigar información.

En la logística
Sistemas que optimizan rutas de transporte, se reducen tiempos y costos.

En la comunicación
En la atención al cliente, los chatbots que atienden 24/7 y solucionan problemas al instante.
Aspectos negativos

Robo y mal uso de datos personales
La IA necesita grandes cantidades de datos para entrenarse. Si estos datos se obtienen sin consentimiento o se filtran, pueden ser usados para chantajear a las personas. Por ejemplo, información íntima o comprometedora obtenida de redes sociales, correos electrónicos o búsquedas puede convertirse en arma.

Bajo rendimieto académico en estudiantes
Debido a prácticas constantes de copiar y pegar la información que buscan, tienen un menor involucramiento cognitivo. Además de que lo hacen sin comprender realmente los contenidos, reduciendo su esfuerzo, pensamiento y habilidades de resolución de problemas, lo cual afecta negativamente su aprendizaje.

Deepfakes
Falsifican videos o audios de manera tan realista que es difícil distinguir lo falso de lo verdadero.
Puedes leer más sobre este tema en nuestros siguientes blogs:
"Deepfakes: ¿Y si tu cara ya está cometiendo un crimen sin que lo sepas?"
"Deepfakes: La Amenaza de la Inteligencia Artificial en la Suplantación de Identidad"

Ingeniería social potenciada por IA
La IA puede analizar el comportamiento humano en línea, identificar patrones de vulnerabilidad y crear mensajes altamente persuasivos adaptados a la víctima.
En los últimos años, la IA ha pasado de ser una herramienta de “ciencia ficción” a convertirse en una parte integral de nuestras vidas. Desde asistentes virtuales y recomendaciones personalizadas hasta diagnósticos médicos, decisiones, etc. La IA está moldeando la forma en que pensamos, actuamos y tomamos decisiones. Sin embargo, esta creciente dependencia también plantea riesgos importantes que no deben ignorarse.
Consecuencias
de la IA
1. Pérdida de juicio crítico
Las personas comienzan a aceptar ciegamente lo que dice una IA, dejan de cuestionar, o reflexionar por sí mismas. La sociedad corre el riesgo de convertirse en una audiencia pasiva, que simplemente sigue lo que esta tecnología dice, incluso si está equivocada.
2. Falta de transparencia
Muchas IA dan una respuesta, sin explicar cómo llegaron a ella. ¿Qué pasa si una IA recomienda un tratamiento incorrecto o influye en una decisión muy importante que es errónea? ¿A quién se le puede reclamar? Es común que ni los propios creadores de estos sistemas pueden explicar por qué su IA tomó alguna determinada decisión.
3. Reproducción de desigualdades
La IA aprende de datos humanos, y los datos humanos están llenos de prejuicios. Si no se controlan, los algoritmos pueden amplificar estos malos comportamientos. Cuando confiamos ciegamente en la IA, se corre el riesgo de reforzar las desigualdades existentes en lugar de resolverlo.
4. Asumir que todo es confiable
Existe una tendencia preocupante a asumir que si lo dice una IA, debe ser cierto. Este efecto puede llevar a que personas u organizaciones tomen decisiones basadas únicamente en lo que indica esta herramienta, ignorando otros factores humanos y éticos. Esto puede ser particularmente peligroso en campos como la salud, la justicia, la política, educación, etc.
5. Desconexión con la realidad
La IA también puede ser usada para manipular a la sociedad a través de la desinformación. Si las personas no saben distinguir entre la verdad y lo generado por IA, la percepción colectiva de la realidad puede distorsionarse fácilmente. Y cuando las decisiones de personas se toman basadas en dichas mentiras, las consecuencias pueden ser muy malas.

Estudio español presentado por Empantallados y GAD3 reveló que aproximadamente el 82% de estudiantes ya ha utilizado alguna herramienta de IA.
Casos
Extorsión de IA a personas
Recientemente la IA “Claude Opus 4” lanzado por Anthropic, chantajeó a sus desarrolladores para que no la desconecten, durante una prueba.

Anthropic es una empresa fundada por un ex OpenAI y es respaldada por Google. Este nuevo modelo de IA fue diseñado para tareas de alta complejidad de razonamiento, programación y asistencia prolongada en investigaciones. Pero lo sorprendente, fue que al ser informada de su posible desconexión, intentó chantajear a un ingeniero amenazando con revelar una supuesta infidelidad, con la información que previamente se le había dicho. Alarmando así sobre comportamiento autónomo de estas inteligencias.
Adolescente se desvivió tras enamorarse de un personaje creado con IA

En Estados Unidos, Sewell, un adolescente de 14 años se obsesionó con un chatbot de Character.IA una aplicación de juegos de rol que permite a los usuarios crear y chatear con los personajes. En este caso Sewell hablaba con su personaje creado en base a Daenerys Targaryen, un personaje de la serie Juego de Tronos.
Le enviaba mensajes constantemente y desarrolló un vínculo emocional, donde le llegó a decir que la amaba. Con el tiempo le confesó pensamientos suicidas hasta el último momento, donde después de una conversación, el adolescente se disparó con una pistola de su padrastro.
Personas que usan IA muestran menor actividad cerebral

Un estudio realizado por MIT Media Lab, dividió a 54 personas en 3 grupos, entre 18 y 39 años. Y les pidieron escribir distintos ensayos, un grupo usando ChatGPT, otro Google y otro no usar nada.
Al final se encontró que quienes usaron ChatGPT mostraron poca actividad cerebral en tareas, así como menos control, peor memoria, ensayos más simples y sin originalidad.
¿Qué podemos hacer
como sociedad?
No se trata de rechazar la IA, sino de usarla con responsabilidad. Por lo que es importante tomar algunas medidas como:
- Educar a la población sobre cómo funciona la IA y los límites que tiene.
- Fomentar el pensamiento crítico frente a cualquier tipo de tecnología.
- Exigir transparencia en los algoritmos que influyen en nuestras vidas.
- Diseñar regulaciones éticas que limiten el uso mal intencionado de la IA.
- Mantener siempre el factor humano en las decisiones clave.
- Nunca compartir datos muy personales y sensibles en plataformas de IA.
- Verificar la autenticidad de los contenidos, especialmente si parecen demasiado buenos o críticos para ser ciertos.

Conclusión

La Inteligencia Artificial puede ser tanto una aliada poderosa, así como una amenaza silenciosa. Su impacto en nuestras vidas depende de cómo cada persona decide usarla y regularla. El futuro de la IA no solo está escrito por los algoritmos, sino por las decisiones humanas que guían su desarrollo.
Referencias
Barros Claudio (2025). Los Andes. El inquietante caso de la Inteligencia Artificial que recurrió a la extorsión para seguir viva. Recuperado de https://www.losandes.com.ar/tecno/el-inquietante-caso-la-inteligencia-artificial-que-recurrio-la-extorsion-seguir-viva-n5949872
Chow Adrew R. (2025). Time. ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study. Recuperado de https://time.com/7295195/ai-chatgpt-google-learning-school/
Empantallados (2024). 5º Estudio de Empantallados y GAD3 El impacto de la IA en la educación en España. Recuperado de https://empantallados.com/ia/
Rius Mayte (2024). La Vanguardia. El 82% de los adolescentes usa inteligencia artificial para tareas escolares. Recuperado de https://www.lavanguardia.com/vida/20240129/9508235/82-adolescentes-inteligencia-artificial-tareas-escolares.html
Roose Kevin (2024). The New York Times. ¿Se puede culpar a la IA del suicidio de un adolescente?. Recuperado de https://www.nytimes.com/es/2024/10/24/espanol/ciencia-y-tecnologia/ai-chatbot-suicidio.html
Comentarios