Errores comunes en el uso de la inteligencia artificial: una reflexión crítica desde el contexto iberoamericano

 Por. Editson Romero Angulo - Periodista


✍️ Resumen

La inteligencia artificial (IA) se ha convertido en una herramienta transversal que acompaña la vida laboral, académica y personal de millones de personas. Su expansión plantea oportunidades inéditas, pero también desafíos éticos, técnicos y pedagógicos. Este artículo analiza seis errores comunes en el uso de la IA, según el Observatorio de Inteligencia Artificial en Educación de la Universidad Europea, y los contextualiza en el marco latinoamericano, con énfasis en Colombia. Se propone una reflexión crítica sobre el rol del usuario, la necesidad de formación ética y la construcción de una cultura digital responsable.


🧠 Introducción


La IA ha dejado de ser una promesa futurista para convertirse en una presencia cotidiana. Desde sistemas de recomendación médica hasta asistentes de escritura académica, su uso se ha normalizado en múltiples esferas. Sin embargo, esta adopción acelerada ha generado una brecha entre el potencial de la tecnología y la capacidad de los usuarios para interactuar con ella de manera crítica y efectiva.

En Colombia, el avance de la IA se enmarca en un proceso de regulación emergente, liderado por el Ministerio de Ciencia, Tecnología e Innovación, que busca garantizar un desarrollo ético, inclusivo y territorialmente pertinente. En este contexto, es urgente identificar los errores más frecuentes en el uso de la IA y proponer estrategias para superarlos. 




⚠️ Seis errores comunes en el uso de la IA


1. No definir el rol de la IA

La falta de claridad sobre el papel que debe asumir la IA (ej. asesor académico, editor, traductor) genera respuestas genéricas o incluso “alucinaciones” —información falsa o incoherente. Definir el rol permite ajustar el modelo a la necesidad específica.

2. Plantear preguntas sin contexto ni especificaciones

Una instrucción vaga como “haz un resumen” puede producir resultados imprecisos. En cambio, una solicitud como “resume en tres párrafos con tono académico y enfoque territorial” mejora la pertinencia de la respuesta.

3. No validar la información

La IA reproduce contenidos existentes, incluidos errores y sesgos. Validar datos, cifras y fuentes es esencial, especialmente en medios independientes y procesos educativos.

4. No considerar el sobreajuste (overfitting)

El sobreajuste limita la capacidad del modelo para adaptarse a nuevos datos. Esto es especialmente problemático en contextos diversos como los territorios rurales o indígenas, donde los patrones difieren de los datos urbanos predominantes.

5. Ignorar el sesgo en los datos

La IA refleja los prejuicios presentes en sus datos de entrenamiento. En salud, esto puede traducirse en diagnósticos menos precisos para poblaciones vulnerables; en finanzas, en exclusión crediticia; y en selección de personal, en discriminación.

6. No considerar la privacidad y la confidencialidad

Compartir información sensible sin conocer los límites éticos y legales puede vulnerar derechos. En procesos comunitarios, esto implica proteger testimonios, datos personales y narrativas identitarias frente a usos indebidos.

🧭 Contexto colombiano y latinoamericano

El Proyecto de Ley de Inteligencia Artificial en Colombia (2025) propone un marco normativo integral con enfoque psicosocial y de equidad digital. Este incluye la creación de una Autoridad Nacional de Supervisión en IA, zonas de prueba regulatoria y formación docente. Además, iniciativas como la Red Académica de Educación e Inteligencia Artificial promueven una reflexión crítica sobre el uso de la IA en educación superior.

📚 Bibliografía

  • Universidad Europea. (2025). Informe OIAES #4: Observatorio de Inteligencia Artificial en Educación Superior. universidadeuropea.com
  • González Molina, J. (2024). Ética algorítmica y ciudadanía digital. Editorial Siglo XXI.
  • López López, M. (2023). Inteligencia artificial y justicia social. Universidad Nacional de Colombia.
  • Ministerio de Ciencia, Tecnología e Innovación de Colombia. (2025). Proyecto de Ley de Inteligencia Artificial. minciencias.gov.co

🌐 Webgrafía

🧾 Glosario

  • IA (Inteligencia Artificial): Sistemas informáticos que simulan procesos cognitivos humanos como el aprendizaje, la toma de decisiones y la generación de contenido.
  • Alucinación: Respuesta falsa o incoherente generada por un modelo de IA.
  • Sobreajuste (Overfitting): Fenómeno en el que un modelo se adapta demasiado a los datos de entrenamiento, perdiendo capacidad de generalización.
  • Sesgo algorítmico: Distorsión en los resultados de la IA causada por prejuicios en los datos de entrenamiento.
  • Privacidad digital: Derecho a controlar la información personal compartida en entornos digitales.