Inteligencia Artificial en la universidad

​La Inteligencia Artificial (IA) está transformando todos los aspectos de nuestra sociedad. No hay un ámbito en el que no se proponga la incorporación de esta tecnología y ya es considerada como la desencadenante de la cuarta revolución industrial. El contexto educativo se encuentra en este momento acogiendo las enormes posibilidades que puede aportar la IA en la mejora de la eficacia de los procesos formativos y en el apoyo al profesorado y estudiantado en sus tareas de enseñanza y aprendizaje.

En esta tarea se hace imprescindible una reflexión profunda sobre las oportunidades que puede brindar el uso de la IA en Educación Superior sin perder de vista las consideraciones éticas y los riesgos que también trae consigo ese uso.

¿Qué es la IA Generativa?

Imagen decorativa generada por inteligencia artifical
Imagen generada por IA

Cuando hablamos de Inteligencia Artificial nos estamos refiriendo a sistemas que intentan simular algún aspecto de la inteligencia humana como la toma de decisiones, el razonamiento o el aprendizaje.

Las IAs son capaces de generar contenido a partir de nuestras peticiones gracias a un proceso de aprendizaje automático basado en los datos que van recopilando. En este caso nos referimos a las IA Generativas (AIGen). Este tipo de sistemas aprenden a partir de grandes conjuntos de datos y existe la posibilidad de volver a entrenar y afinar el modelo con nuevas interacciones.

Dentro de las IAGen tenemos los Large Language Models (LLM) que son capaces de procesar texto en lenguaje natural  para producir respuestas a partir del entrenamiento llevado a cabo con la gran cantidad de datos procesados. 

Estos modelos son los que se utilizan en el ejemplo más popular actualmente de estos sistemas: ChatGPT. Es un agente conversacional que usa lenguaje natural para interactuar con la IAGen que es capaz de procesar el texto de la pregunta y generar una respuesta basada en los patrones encontrados en su entrenamiento. En este modelo es básico el uso de los datos que va recopilando, por ejemplo, de las preguntas de los propios usuarios y que le permiten mejorar sus respuestas.

En este punto es importante diferenciar entre IAGen sin privacidad de datos, que utilizan los datos que se introducen como fuente para el propio entrenamiento e IAGen con privacidad de datos que protegen los datos del uso de terceros y no son utilizados como entradas en los procesos de aprendizaje.

Dentro de las IAGen públicas y siguiendo el ejemplo de los modelos generadores de lenguaje podemos mencionar ChatGPT desarrollado por OpenAI actualmente en su cuarta versión, Copilot de Microsoft, Gemini desarrollado por Google o LlaMA creado por Meta.

Como alternativa a los anteriores, actualmente, la Universidad de Granada proporciona a PDI y PTGAS la oportunidad de utilizar la versión protegida del chat Copilot accediendo con la cuenta institucional de Microsoft (@ms.ugr.es) o con un perfil en su navegador Edge. La principal ventaja de esta IAGen es que las preguntas y datos que utilicemos para interactuar con el modelo no serán reutilizados posteriormente para reentrenar el modelo, evitando problemas de fuga y protección de datos. Próximamente, se contempla que también esté disponible para el alumnado.

¿Cómo utilizar la IAGen en la Universidad?

Quizá antes de responder a esta pregunta, debemos preguntarnos ¿cómo usarla? Si tenemos una herramienta que permite mejorar tareas, ¿hay algún caso de mal uso? Desafortunadamente, siempre lo hay. En nuestro entorno académico, donde el leit motiv es que el alumnado aprenda, debemos tener cautela y reflexionar bien dónde debemos permitir su uso y dónde no.

Como otras herramientas en el pasado, la IA está replanteando la manera de afrontar muchas de nuestras tareas cotidianas. Es una tecnología que puede ayudar a mejorar distintos aspectos del trabajo universitario, desde ayudar a mecanizar y hacer más eficientes tareas administrativas hasta apoyar a los docentes en la creación de contenidos más accesibles para el alumnado.

Una de las principales ventajas que aporta para todos los colectivos es precisamente la mejora en la eficiencia de algunos procedimientos como, por ejemplo, la generación o depuración de código o fórmulas para hojas de cálculo, la síntesis de información y datos o la revisión de trabajos.

En definitiva, se hace necesario explorar los distintos usos que las IAGen pueden aportar en el trabajo dentro de la comunidad universitaria con el objetivo de provocar procesos de cambio y mejora siempre desde la concienciación de un uso ético y responsable de la tecnología. Para llevar a cabo esta integración, es fundamental conocer todas sus potencialidades pero también ser consciente de los riesgos para poder utilizarlas de una forma segura.

Consideraciones preliminares

Las oportunidades que nos brinda el uso de las herramientas de IAGen nos animan a experimentar su utilización en diversas facetas del quehacer de todos los miembros de la comunidad universitaria, sin embargo, es necesario promover un uso responsable de esas herramientas y tener en cuenta algunos aspectos importantes como los siguientes:

  1. Privacidad y protección de datos. La información que se introduce en las IAGen de tipo pública (por ejemplo chatGPT) se utiliza para el entrenamiento y aprendizaje del modelo. Pasan a ser datos públicos de los que perdemos el control de su uso.

  2. Problemas de sesgo. Al aprender de la información que procesa sin distinciones éticas de ningún tipo, las IAGen pueden reproducir distorsiones o desviaciones que se encuentren en el procesamiento de esos datos. Esto provoca que la información que se genere pueda estar sesgada y sea necesario un procesamiento crítico por parte del usuario. Así, podría, por ejemplo, reproducir estereotipos no deseados o caer en una falta de diversidad.

  3. Integridad académica y propiedad intelectual. Una de las principales preocupaciones con el uso de estas herramientas es el aumento en el riesgo de plagio que puede darse. Las herramientas antiplagio no son capaces de detectar los documentos producidos con IAGen ya que aunque se basen en información que puede ser pública es un contenido nuevo. Promover un uso ético de la IA y cambiar metodologías docentes y de evaluación pueden ser la respuesta a esta problemática. Además, es posible que estas IAGen reproduzcan secuencias usadas en su entrenamiento de modo que su salida podría vulnerar el copyright.

  4. Falta de transparencia. Los modelos utilizados se desarrollan con muchas variables que no son accesibles para el usuario y que, por tanto, las hacen imposibles de comprender. Todavía no podemos entender los tipos de razonamiento que pueden llevar a dar una respuesta sobre otra.

  5. Veracidad. En ocasiones, las respuestas generadas por la herramienta son completamente fabricadas, las llamadas “alucinaciones” de la IAGen. Esto hace todavía más importante el procesamiento crítico de las respuestas generadas con IAGen debiendo revisar y validar siempre cualquier texto obtenido.

Recomendaciones iniciales

Sin pretender dar una guía exhaustiva sobre el uso de la IA en la enseñanza superior, a continuación, os dejamos algunas recomendaciones que debéis tener en cuenta si queréis comenzar a experimentar con este tipo de herramientas.

  • Recomendaciones para toda la comunidad universitaria:

    1. No se deben introducir en las IAGen públicas (por ejemplo chatGPT) datos de carácter personal o confidencial como registros de estudiantes, datos de investigaciones sin publicar, datos médicos, etc.

    2. Es necesaria la revisión crítica y comprobar la exactitud de las respuestas generadas por IAGen ya que pueden incluir sesgos, estereotipos, “alucinaciones” o contenido protegido por derechos de autor. Cada uno es el responsable del contenido que publique incluso el generado por IA.

    3. Consultar las herramientas disponibles en la UGR para el uso de la IAGen. Actualmente los miembros de la comunidad universitaria pertenecientes a los sectores del PDI y PTGAS tienen disponible a través de la cuenta corporativa de Microsoft el copilot (antiguo Bing Chat). La principal ventaja de esta herramienta es que protege la privacidad de los datos que se introducen y no se utilizan en el entrenamiento del modelo ni se ceden a terceros.

  • Recomendaciones y sugerencias para ​​docentes:

    1. Debes revisar siempre la salida que genera y las posibles referencias que utilice.

    2. Prueba las posibilidades de la IAGen en la creación de materiales docentes como, por ejemplo, en la creación de resúmenes, elaboración de cuestionarios, mejora en la accesibilidad de materiales, etc.

    3. En el caso de utilizar alguna herramienta de IAGen hazlo saber a los estudiantes y referencia convenientemente el contenido.

    4. Informa al alumnado del uso que está permitido en tu asignatura de herramientas de IAGen y las maneras de usarlo, asimismo, advierte sobre las consecuencias del mal uso de estas tecnologías.

    5. Fomenta la formación del estudiantado en el correcto uso de las tecnologías de IA.

    6. Promueve entre el alumnado el pensamiento crítico fomentando el procesamiento de la información generada a través de herramientas de IAGen. Para ello, desarrolla tareas que a partir de los textos generados en herramientas como, por ejemplo, chatGPT, requieran de un análisis crítico y un razonamiento posterior para llegar a los resultados esperados.

    7. Diseña la evaluación de manera que se promueva una evaluación auténtica teniendo en cuenta diferentes tipo de pruebas a lo largo del proceso de enseñanza y aprendizaje e incluyendo algunos modelos distintos del formato escrito en un documento electrónico y favoreciendo la producción manuscrita y oral además del trabajo en clase.

  • Recomendaciones e ideas para estudiantes: 

    1. Consulta sobre el uso de la IAGen que está permitido en cada contexto educativo.

    2. Debes revisar siempre la salida que genera y las posibles referencias que utilice.

    3. Actúa siempre con ética y responsabilidad. El uso de la IAGen puede ayudarte en las tareas  de aprendizaje pero el objetivo último es alcanzar ese aprendizaje a través del trabajo realizado respetando el código ético de la Universidad en el que no están permitidos el plagio ni la falta de respeto a los derechos de autor.

    4. Mejora tus resultados con la IAGen aprendiendo a usarla y a comunicarte con ella de manera adecuada. Pero no dejes que piense por ti, si no ejercitas tu cerebro lo acabarás atrofiando.

    5. La IAGen puede ser usada como una primera aproximación a un problema pero es necesario analizar las respuestas de manera crítica, contrastando la información, para llegar a un resultado creativo que te permita el aprendizaje y evite algunos de los problemas derivados del uso de la IA.

    6. Transparencia y honestidad: es fundamental siempre informar del uso de la IA generativa en caso de que se esté utilizando. También lo es citar siempre de manera adecuada las contribuciones incluidas en tu trabajo incluso en el caso de que estas hayan sido elaboradas con alguna herramienta de IA, solo en el caso en el que el uso de la IA se permita en la asignatura.

    7. Repasar errores: puedes utilizar la IAGen para mejorar y ayudarte en algunos de los procedimientos relacionados con tu estudio como, por ejemplo, generar resúmenes, pruebas de autoevaluación, revisión de trabajos, buscar explicaciones de conceptos complejos, etc.

Normativas actuales

Acciones para el fomento del correcto uso de la IA en la UGR 

Actualmente la UGR se encuentra en un proceso abierto de reflexión y experimentación en el que se pretende explorar y aprender en el seno de la comunidad universitaria sobre las posibilidades de las herramientas de IA aplicadas en la Universidad. En este proceso se están llevando a cabo algunas acciones para que la comunidad sea parte fundamental de los progresos y avances en esta línea. Entre otras, algunas de las acciones que se están llevando y se llevarán a cabo serán:

  • Grupos de trabajo IA-UGR
  • Seminarios/Talleres/Foros
  • Curso de formación en AcademiaUGR
  • Espacios para el Intercambio de buenas prácticas
  • Línea específica de proyectos de innovación basados en IA
  • Pruebas piloto del uso de herramientas de IA en distintos servicios de la Universidad

Guía para usar herramientas de IA en UGR protegiendo tus datos

Analizamos algunas de las herramientas más utilizadas actualmente: Copilot (de Microsoft), ChatGPT (de OpenAI), Gemini (de Google), NotebookLM (de Google) y Perplexity. Iniciamos con dos indicaciones: 

  1. Es muy importante conocer que, por defecto, toda la información que proporcionamos a las herramientas de IA se utiliza para entrenar sus modelos, de modo que, si vamos a compartir información debemos evitar en la medida de lo posible que contenga datos personales o sensibles, ya que estos podrían aparecer en resultados a consultas de otros usuarios. 
  2. Muchas herramientas disponen de mecanismos para deshabilitar el aprendizaje de los datos que se comparten con ellas. Es importante, por tanto, conocer cómo podemos evitar que entrenen sus modelos con nuestros datos, especialmente cuando son sensibles o privados. 

A continuación os damos una serie de recomendaciones para utilizar estas herramientas: 

Copilot (Microsoft)
Acceso Ir al buscador de Microsoft (https://bing.com) y allí pinchar en el icono “Copilot”.
Uso Herramienta de conversación que permite obtener información general. Una limitación que tiene es que en la versión gratuita no se pueden subir ficheros para que los analice.
Protección de datos Si se accede con la cuenta UGR (usuarios @ms.ugr.es que se solicitan aquí), los modelos no se entrenan y los datos están protegidos. Se puede comprobar que aparece un icono de un candado verde que indica que está activa la “Enterprise data protection”. Si no se accede con la cuenta de UGR, no estaríamos protegidos.
Limitaciones Con la versión de UGR no hay acceso a los módulos de Copilot que se integran con Office365 para ayudar a generar documentos Word, presentaciones Powerpoint y fórmulas en Excel. Para eso hay una versión de pago que no está disponible en la UGR.    
Gemini (Google)
Acceso Navegando a la dirección: https://gemini.google.com
Uso Similar a Copilot, con funcionalidad y aspectos parecidos, pero utiliza el modelo de Google, que en algunas comparativas sale mejor parado a fecha actual (la evolución de estos modelos ahora mismo es muy rápida)
Protección de datos Si se utiliza la cuenta UGR (@go.ugr.es) (ver instrucciones de activación), nuestros datos están protegidos. Por tanto, se recomienda hacerlo de este modo. 
Limitaciones En la versión UGR o la gratuita de Google solo se pueden subir imágenes para que las analice, pero no otro tipo de ficheros, como pdf. Es necesaria la versión de pago para ello, no disponible en UGR. La alternativa es NotebookLM (ver abajo).
ChatGPT (OpenAI)
Acceso Navegando a la dirección: https://chatgpt.com/
Uso Similar a Copilot y Gemini.
Protección de datos No disponible con cuenta UGR. Ello implica que los datos no están protegidos. Si se utiliza, se recomienda que se haga con un usuario (no usar accesos anónimos) y además se desactive la opción “Mejorar el modelo para todos” en la sección controles de datos. De lo contrario, estaremos enviando todas nuestras conversaciones y datos para que las aprenda el modelo.  
NotebookLM (Google)
Acceso Navegando a la dirección: https://notebooklm.google
Uso Esta herramienta es diferente a las anteriores, ya que permite subir fuentes de información, como ficheros pdf por ejemplo, y conversar sobre el contenido de los mismos. También es capaz de generar resúmenes e incluso un podcast sobre las fuentes suministradas. Es muy útil para estudiar un contenido o para obtener información de uno o varios documentos extensos haciendo preguntas a la IA sobre su contenido.
Protección de datos Igual que sucede con Gemini, debemos utilizarlo exclusivamente con nuestras cuentas UGR de Google (@go.ugr.es) para que los documentos utilizados no entrenen los modelos y estemos protegidos.
Perplexity (Perplexity AI)
Acceso Navegando a la dirección: https://perplexity.ai
Uso Buscador basado en IA y especializado en aportar referencias precisas sobre las fuentes de las que ha obtenido la información. Es altamente recomendable para poder verificar la veracidad del texto generado por la IA.
Protección de datos En UGR no disponemos de una licencia con protección de datos para este buscador. En el caso de que se utilice, se recomienda utilizarlo con un usuario (no utilizar el acceso anónimo), y configurar dicho usuario para evitar el envío de datos al modelo. Para ello, en la configuración de la cuenta del usuario, se debe seleccionar la opción “Retención de datos de IA” y ponerlo con valor “Desactivado”.

Resumen de recomendaciones

  1. Ser cuidadosos con la información que enviamos a las herramientas de IA. Protejamos nuestros datos y los de la Universidad, que son el oro del siglo XXI. 
  2. Ser especialmente cuidadosos con los datos personales de cualquier tipo. Cualquier cesión de datos a un tercero sin consentimiento podría conllevar una considerable sanción por parte de la Agencia de Protección de Datos. Ante la duda, se debe contactar con el equipo de Protección de Datos de la UGR en @email
  3. Si precisamos enviar datos a herramientas IA, utilizar preferentemente las herramientas con las que tenemos licencia de UGR (Copilot, Gemini y NotebookLM), siempre utilizando los usuarios UGR (@ms.ugr.es o @go.ugr.es, según corresponda).
  4. En el caso de usar herramientas sin licencia UGR, como ChatGPT o Perplexity, hacerlo con usuarios (sin acceso anónimo), y configurando dicho usuario para evitar el envío de datos al modelo.
  5. Mantenerse atento y al día sobre las últimas recomendaciones, dado lo rápido que evoluciona el uso de la IA. 
  6. Ser conscientes del elevado consumo de recursos (especialmente energéticos) que supone el mantenimiento y uso de la IA.