El dilema de los deberes y la IA: guía para un uso saludable

kids using AI for homework

 

La llegada de la inteligencia artificial (IA) constituye sin lugar a dudas una de las mayores revoluciones tecnológicas desde el nacimiento de Internet, y aunque es cierto que estos sistemas han avanzado a pasos agigantados a lo largo de los últimos años, los expertos aseguran que apenas hemos visto una fracción de su potencial. Para hacernos una idea de lo que eso significa, podríamos decir que la IA ha alcanzado una etapa de su desarrollo comparable al estado en el que se encontraba Internet cuando empezó a desembarcar en muchos hogares durante la década de los 90.

A lo largo de los últimos 30 años, el mundo ha ido evolucionando junto con la Red, familiarizándose progresivamente con su uso y asimilando las posibilidades y los riesgos que conllevaba, y ahora ha llegado el momento de que hagamos lo mismo con esta nueva herramienta.

El hecho de que incluso los niños de 7 años utilicen la IA a diario ha llevado a muchos padres y profesores a preguntarse cuál va a ser el futuro de esta tecnología y si depender excesivamente de ella puede resultar perjudicial para la educación y el desarrollo de los más pequeños.

¿Qué es la IA?

El término «inteligencia artificial» hace referencia a un tipo de tecnología capaz de llevar a cabo tareas que anteriormente solo estaban al alcance del cerebro humano. Los algoritmos, el denominado «aprendizaje automático» (un proceso mediante el cual el ordenador es capaz de «aprender» a partir de una gran cantidad de datos) y otro tipo de técnicas permiten a los sistemas de IA reconocer nuestra voz, generar contenidos, tomar decisiones, comprender el lenguaje humano e incluso identificar objetos en imágenes.

Podemos pensar en esta tecnología como si fuera una suerte de robot al que le hemos pedido que nos ayude a resolver rompecabezas. Al principio, le enseñamos un gran número de estos puzles, y él intenta resolverlos formulando una serie de suposiciones más o menos acertadas. Al igual que las personas vamos mejorando en la realización de tareas a medida que ganamos experiencia, el número de aciertos del robot va aumentando progresivamente hasta que llega un momento en el que es capaz de resolver cualquier rompecabezas que le propongamos. 

Sin embargo, cuando hablamos que esta tecnología puede servir como recurso a la hora de hacer los deberes, normalmente nos referimos a la herramienta de IA generativa ChatGPT. Tras el lanzamiento de la plataforma en 2022, todo tipo de usuarios expresaron su admiración por la capacidad de este bot de chat para mantener conversaciones de forma natural, responder a preguntas y generar contenidos creativos —¡e incluso chistes y canciones!—.  

¿Cómo pueden nuestros hijos utilizar la IA para hacer los deberes? 

El término «IA» comprende una amplia variedad de herramientas que pueden ayudar a los más pequeños con sus estudios de infinidad de formas. Por ejemplo, un alumno podría usar ChatGPT para que redactara un trabajo escrito por él, mientras que otro que hubiera estado enfermo podría recurrir a una herramienta de conversión de voz a texto basada en esta tecnología para recuperar las clases que se ha perdido. 

Para que te hagas una idea de las posibilidades que ofrece, los niños en edad escolar pueden usar la IA para las siguientes tareas:

 

  • resolver dudas y obtener información sobre un tema;
  • traducir texto a otros idiomas;
  • elaborar el esquema de un trabajo;
  • analizar y explicar conceptos de carácter complejo;
  • resolver problemas matemáticos y exponer el método que han usado para hacerlo;
  • corregir la ortografía y la gramática de un texto;
  • obtener sugerencias de escritura; 
  • generar preguntas de prueba para preparar exámenes;
  • diseñar un plan de estudio; 
  • en el caso de los alumnos con dificultades visuales y de audición, convertir textos en audio y viceversa.

 

teenager using AI for homework

 

¿Por qué a los padres les preocupa que sus hijos puedan utilizar la IA para hacer los deberes?

Poco después de que ChatGPT llegase al mercado, un grupo de colegios, incluidos los de la ciudad de Nueva York, decidieron prohibir su uso alegando que la aplicación permitía a los alumnos hacer trampas y que podía tener un impacto negativo sobre su aprendizaje. Sin embargo, acabaron reconsiderando su postura cuando los profesores empezaron a familiarizarse con el funcionamiento de esta tecnología. En la actualidad, muchos centros e instituciones educativas reconocen el potencial que ofrecen las herramientas de IA y apuestan por fomentar su uso responsable.

Aunque es posible que los colegios admitan su uso en determinadas circunstancias, muchos padres muestran reservas a la hora de permitir que sus hijos utilicen estos sistemas como herramienta educativa, argumentando, entre otras, las siguientes razones: 

Los niños pueden desarrollar una dependencia excesiva de esta tecnología en detrimento de habilidades como la creatividad y el pensamiento crítico 

El objetivo de los deberes es ayudar a nuestros hijos a desarrollar nuevas habilidades, reforzar sus conocimientos y repasar conceptos. Si la IA hace la mayor parte del trabajo, existe el riesgo de que dejen de pensar por sí mismos y se pierdan oportunidades esenciales para continuar su aprendizaje.

Aunque se trata de una preocupación justificada, lo que realmente debería importarnos es el uso que hacen nuestros hijos de esta herramienta, no si es recomendable utilizarla. Si establecemos unas reglas claras al respecto, la IA puede contribuir a fomentar la creatividad de los más pequeños y ayudarles a desarrollar el pensamiento crítico. Por ejemplo, un niño interesado en la escritura creativa podría pedirle a este tipo de chats que generasen una imagen o le propusieran ideas que le sirvieran de inspiración a la hora de escribir un relato o un poema. 

Utilizar la IA es una forma de «copiar» 

Los alumnos que usan las herramientas de IA como ChatGPT para hacer los deberes se exponen a ser acusados de copiar, dependiendo del uso que hagan de ellas y de cuál sea la política del colegio al respecto

Por ejemplo, si un niño usase la IA para generar una redacción entera o responder a las preguntas que ha planteado el profesor y presentase el trabajo como si fuera suyo sin explicar que ha usado la IA, podría llegar a considerarse un plagio. 

Los profesores imponen deberes a los más pequeños para que puedan desarrollar el razonamiento, el pensamiento crítico, la capacidad de resolución de problemas y las habilidades de expresión escrita fuera de clase. Utilizar la IA de forma abusiva o irresponsable puede frustrar cualquier posibilidad de que eso suceda.

Por esta razón, muchas instituciones educativas han empezado a definir claramente qué significa hacer un uso responsable de estas aplicaciones y cuál es el contexto adecuado para emplearlas. 

La IA puede proporcionar información errónea o falsa

A la hora de explicar sus limitaciones, OpenIA —la empresa responsable de ChatGPT— admite que «en ocasiones, genera respuestas que parecen plausibles, pero son incorrectas o no tienen sentido», un problema que no la convierte en la herramienta ideal si tenemos en cuenta que hablamos de alumnos que intentar aprobar.

La confianza con la que el bot recita sus respuestas refuerza su apariencia de autoridad, pero es fundamental averiguar cuáles son sus fuentes de información. ChatGPT elabora sus contestaciones basándose en los datos con los que ha sido entrenado y en predicciones estadísticas en lugar de razonar o acceder a la información en tiempo real.

Eso significar que sus respuestas pueden:

  • Estar desfasadas. La base de conocimientos que utiliza la aplicación está compuesta por los datos que había disponibles en un momento concreto del tiempo. Si la información que solicitan los usuarios es posterior, el bot de chat se ve obligado a extraer la información de Internet.
  • Incluir información sesgada o imprecisa. ChatGPT fue entrenado usando grandes cantidades de información disponible públicamente en la web, que, como ya sabemos, no siempre se caracteriza por la fiabilidad de su contenido.
  • Ser erróneas. Las aplicaciones de este tipo generan textos basados en los datos con los que fueron entrenadas; es decir, que no «razonan» de la misma forma que lo hacemos los seres humanos. Eso significa que pueden ofrecer contestaciones que suenan plausibles, pero que son completamente falsas o carecen de sentido.

 

Aunque es evidente que las herramientas de IA resultan cada vez más intuitivas, es fundamental que los niños comprueben siempre la información utilizando una fuente fiable (cualquier usuario puede pedirle al ChatGPT que le muestre los recursos que ha utilizado para elaborar su respuesta).

Nuestros hijos ya dedican demasiadas horas a los dispositivos, y la IA puede convertirse en un problema añadido 

La cuestión de cómo encontrar el equilibrio entre la tecnología y el aprendizaje sigue siendo objeto de debate tanto por parte de los colegios como de los propios padres, y el hecho de que los niños hayan empezado a utilizar estas aplicaciones de forma habitual puede incrementar aún más el tiempo que pasan delante de la pantalla.

Sin embargo, como al igual que en el caso de otras formas de tecnología, lo más recomendable es que los niños compaginen el uso de la IA con otros recursos, como los libros y otras herramientas y materiales analógicos. Algunos padres utilizan herramientas de control parental como Qustodio para ayudar a sus hijos a desarrollar una relación más saludable con esta tecnología y con los dispositivos electrónicos en general.

Las plataformas de IA recopilan los datos personales de los menores 

Para poder seguir aprendiendo y mejorando, la IA necesita datos —ingentes cantidades de datos—, y una forma de obtenerlos es realizar un seguimiento de su uso y recopilar la información privada que introducen los usuarios. Este aspecto resulta especialmente preocupante desde el punto de vista de aquellos padres que desean proteger la privacidad de sus hijos en Internet.

La mayoría de las plataformas de IA son conscientes de esta inquietud y han establecido medidas para proteger los datos de los usuarios. Por ejemplo, según establece la política de privacidad de OpenAI, ChatGPT: 

  • Garantiza el anonimato de los datos obtenidos en las conversaciones de los usuarios eliminando la información de identificación personal (IPP).
  • No solicita ni almacena información privada, como nombres, direcciones u otro tipo de IPP.
  • Permite que los usuarios se opongan a que sus conversaciones sean utilizadas para mejorar el modelo.
  • Incluye restricciones de edad. Para garantizar el cumplimiento de las leyes de protección de datos —como la LOPD—, los usuarios de ChatGPT deben ser mayores de 13 años, y los menores de 18 deben disponer de una autorización parental (aunque, dado que la aplicación no dispone de ningún sistema de verificación de la edad, es fácil saltarse este paso).
  • Cifra los datos compartidos en las conversaciones para evitar cualquier acceso no autorizado.
  • Almacena los datos únicamente durante un periodo de tiempo limitado.

Independientemente de la plataforma de IA que usen tus hijos, te recomendamos que revises su política de privacidad para hacerte una idea más clara de cómo trata sus datos y cómo puedes configurar vuestras preferencias.

Using AI for homework: 5 healthy AI habits

Regardless of the side of the fence you stand on, there are two facts about AI: it’s not going away, and it’s only going to get better. Over the next few years, we’ll see AI being integrated more and more into our daily lives – and although we are right to have concerns, the question we should be asking is how can we encourage our kids to use AI responsibly?

To start you and your child on the right path, here are 5 healthy AI habits:

1. Use AI as a supplement, not a substitute

No matter what some folk say, AI has not, and cannot, replace old-fashioned brain power. So rather than asking for answers to homework problems, kids can use AI to better understand concepts before solving them themselves. 

2. Ask better questions

The answers AI generates are only as good as the questions it’s asked – giving kids the opportunity to practice formulating clear and specific queries. Also, thoughtful follow-up questions can lead to deeper understanding.     

3. Verify with trusted sources

While they might communicate with confidence, AI chat tools’ answers can sometimes be outdated, biased, inaccurate, and just plain wrong!

So instead of blindly taking AI’s answers as fact, we can help our kids practice their cross-referencing skills with information from reliable and trusted sources.

4. Play with AI together

Sit down with your child and spend time experimenting with AI – maybe by creating funny images or songs together.

Not only will it be a chance for you both to learn more about AI capabilities, but it will also help your child feel more comfortable coming to you with their concerns about AI and its potential risks. 

5. Set fair limits

AI can be addictive and easy to overuse. As with other types of technology, it’s essential to establish a few ground rules for AI. Parents can use a parental control tool like Qustodio to block AI apps and websites from being opened, or set appropriate time limits for their usage.

 

With AI developing at such a rapid rate in recent years, it’s understandable that many people, especially parents, look at it with suspicion – and even fear. However, AI has the potential to be an incredible educational tool that can help our children on their learning journey. By teaching kids to use AI responsibly, we can not only help them pass classes and get better grades, but also better prepare them for an AI-powered future.

Qustodio dashboard | kids screen time

¿Cómo puede Qustodio ayudarte a proteger a tu familia?

Qustodio es la mejor forma de proteger a tus hijos en Internet y ayudarles a desarrollar unos hábitos digitales saludables. Nuestras herramientas de control parental te permitirán asegurarte de que no acceden a contenido inapropiado ni pasan demasiado tiempo delante de la pantalla.

Empieza gratis Empieza gratis