Recomendaciones para usar la IA en la UGR

En marzo de 2024 se inició un proceso participativo para elaborar un documento sobre recomendaciones del uso de la inteligencia artificial en la UGR. En dicho proceso han colaborado más de 100 participantes procedentes de los diferentes estamentos de la UGR: estudiantado, PDI y PTGAS. 

El documento completo está estructurado en 4 partes, correspondientes a los grupos de trabajo (docencia y aprendizaje, investigación, gestión universitaria e impacto social). Cada una de las 4 partes del documento extenso recoge las oportunidades que la IA ofrece y también las problemáticas asociadas, para terminar con una lista de recomendaciones. 

Resumen con preguntas frecuentes

Adicionalmente, se adjunta un resumen ejecutivo del documento de recomendaciones, redactado a modo de preguntas frecuentes. A continuación se muestran las preguntas y respuestas que se abordan en el documento de resumen ejecutivo. 

  • El documento de recomendaciones está estructurado en secciones según nuestro interés esté en la i) docencia y el aprendizaje, ii) la investigación, iii) la gestión universitaria o iv) el impacto social que la IA tiene en nuestro entorno. Además, en el caso de la docencia y el aprendizaje se diferencia entre profesorado y estudiantado. Es, por tanto, recomendable elegir previamente aquellas secciones que son de nuestro interés. Para cada sección podrás consultar las oportunidades y usos que tiene la IA, así como las amenazas y también las recomendaciones. 

  • El proceso de cambio introducido socialmente por el desarrollo de la IA está generando mucha incertidumbre y preguntas. Todos los procesos de cambio generan recelo y miedos, pero también oportunidades. En EEUU (1988) un grupo de profesores de matemáticas se manifestó contra el uso de las calculadoras en las aulas. Hoy en día, todo el mundo asume como natural su utilización. Digamos que toma actualidad la frase del informático Alan Kay: “La tecnología solo es tecnología para los que han nacido antes que ella”. Lo importante es poner énfasis en comprender y formarse en la utilización de la IA para aprovechar las oportunidades y controlar los riesgos. La Universidad de Granada tiene una responsabilidad importante en esta labor. En el documento de recomendaciones se detallan tanto las oportunidades como las amenazas en los diferentes ámbitos, precisamente para ayudar a comprenderlas. 

  • Partiendo de la base de que este documento no es normativo sino solamente de recomendaciones, la respuesta a la pregunta es clara: se recomienda su uso siempre que se conozcan sus limitaciones y las implicaciones éticas (ver en pregunta P4). Nos permitirá aprovechar muchas oportunidades que se describen precisamente en el documento de recomendaciones. 

  • Tener un criterio ético a la hora de utilizar la IA permite a cada persona conocer con autonomía en qué procesos o aplicaciones se debe utilizar o no la IA. En el documento de recomendaciones se hace un extenso análisis de estas implicaciones y se presentan recomendaciones para su aplicación, segmentadas por el tipo de ámbito (ej. docencia y aprendizaje, gestión, investigación). Las principales implicaciones éticas son: 

    • Sesgo de los algoritmos y discriminación. Es importante conocer las limitaciones de los algoritmos y tomar conciencia sobre los sesgos y discriminación (de género, raza, cultura, estereotipos) que pueden introducir en la elaboración de contenido. Como ejemplo, cuando la IA habla de un/a “doctor” en inglés (que se puede traducir por doctor o doctora) suele pensar en un hombre; cuando habla de un/a “nurse” en inglés (palabra usada indistintamente para referirse a un enfermero o enfermera), suele pensar en una mujer. Se recomienda revisar y analizar siempre dichos contenidos con el fin de eliminar estos sesgos. 
    • Accesibilidad y equidad. El acceso a los datos e información que se genera por IA, así como la utilización de las herramientas basadas en IA debe ser accesible y no debe generar o profundizar en la brecha digital.
    • Privacidad y protección de datos. Compartir datos privados con la IA los expone a otros usuarios. Es importante, por tanto, tener conciencia sobre los datos que se van a compartir con los modelos de IA y evitar el envío de información protegida. Algunas medidas prácticas para poder proteger nuestros datos se han analizado por el Vicerrectorado de Transformación Digital y están disponibles en esta misma página
    • Transparencia. Es importante incrementar la confianza en el uso que se hace de la IA. Por ello, se recomienda informar cuando se haya utilizado la IA del propósito de dicho uso y cómo se ha utilizado, así como de los resultados obtenidos. 
    • Veracidad. Es relevante ser críticos con la información aportada por la IA, determinando las fuentes originales de la información y asegurándose de que dicha información es comprensible y explicable. 
    • Autonomía y creatividad. El uso de la IA puede socavar la capacidad de autonomía de las personas, significando esto que la IA podría inducir a seguir determinados caminos establecidos en la forma de pensar, en la investigación o en los modos de trabajo, haciendo homogéneos estos procesos para todo el mundo. Nótese el riesgo de influencia sobre la población de aquellos que dominan el funcionamiento de los algoritmos. Por ello, es importante dar a la IA el papel de apoyo que tiene, pero siempre siendo consciente de que la toma de decisiones debe ser responsabilidad de la persona que la usa. También lo es evitar la pérdida de capacidad creativa delegando dichas tareas simplemente a la utilización de la IA. 
    • Responsabilidad. La persona que utiliza la IA es la responsable de las acciones y decisiones que se tomen a partir de dicho uso. Ello implica que se debe supervisar en todo momento la información o acciones que la IA genera, dado que las consecuencias deben ser asumidas por la persona que las utiliza. 
    • Comportamiento académico ético. Una preocupación relevante es que la utilización de la IA implique un aumento del fraude académico y el incremento de conductas contrarias al Código Ético de la Universidad. Es fundamental tener en consideración siempre un comportamiento éticamente correcto en las actividades académicas, en línea con la normativa y los principios y valores de la Universidad de Granada. La Universidad, por su parte, deberá determinar y concretar en su normativa y reglas de actuación cómo este criterio ético se debe aplicar en el caso de la utilización de la IA. Se recomienda también leer la respuesta a la pregunta anterior: “¿Se considera que usar la IA en el entorno docente es fraude académico?”.
       
  • Para responder a esta pregunta podemos utilizar alguna analogía con otras herramientas tecnológicas. ¿Se considera que usar una calculadora para entregar los resultados de un experimento en una memoria de prácticas es fraude académico? Parece que por consenso la respuesta sería no, a no ser que expresamente se indicara en las instrucciones de la práctica. ¿Se considera que utilizar una herramienta como Excel para generar una gráfica a partir de unos datos es fraude académico? Parece que también hay consenso en que no lo es. También sería extraño considerar como fraude la utilización de un procesador de texto que maqueta un documento o que corrige las faltas de ortografía. A día de hoy, presentar un documento bien maquetado, sin faltas de ortografía, y con cálculos y gráficas se considera habitualmente un requisito mínimo. Lo que se debería valorar realmente es la coherencia de los resultados y la capacidad de análisis e interpretación de los mismos por parte del estudiantado. 

    La única diferencia entre la IA generativa y estas otras herramientas que hemos citado es que hasta ahora ninguna herramienta tecnológica había sido capaz de generar contenido en texto con tanta precisión. Si bien en la actualidad entregar un trabajo con una redacción clara y suficientemente extensa se considera como un mérito por parte del estudiantado, hay que plantearse renovar los sistemas de evaluación y considerar este aspecto como un requisito mínimo también, poniendo aun más el foco en la capacidad de comprensión, análisis, innovación y reflexión sobre los contenidos. 

    Como resumen, la respuesta a esta pregunta es que utilizar una herramienta como la IA no implica necesariamente fraude académico, sino que se recomienda su utilización para elevar el nivel de los trabajos. Ahora bien, es preciso matizar que en los casos en los que académicamente se prohíba su utilización (igual que se puede prohibir el uso de una calculadora en un examen por ejemplo), sí que podría considerarse fraude académico utilizarla. De igual modo, es importante hacer notar que la utilización de la IA puede hacer incurrir más fácilmente al estudiantado en una situación de fraude, especialmente si no realiza el trabajo de verificar y citar adecuadamente las fuentes de las que surgen los textos que incluye en un documento. 

    Finalmente, en el ámbito de cada asignatura o actividad docente también se recomienda clarificar muy bien al estudiantado, y cuando sea posible consensuar, los ámbitos en los que se considera aplicable o no el uso de la IA. La guía docente puede ser el lugar idóneo para esto. 
     

  • A día de hoy existen algunas herramientas que reclaman ser capaces de detectar cuándo un texto o imagen ha sido generado con IA y cuándo no. Estas herramientas solamente aportan un valor de probabilidad de que se haya producido la utilización de la IA y no debe tomarse su resultado como totalmente cierto. El problema es que conforme los modelos de IA van mejorando se hace cada vez más difícil detectar su utilización, incluso para algoritmos avanzados de detección. 

    Siguiendo con la analogía de la calculadora, hoy se entiende que es muy complicado saber cuándo se ha utilizado una calculadora en una operación y cuándo no, especialmente cuando solamente se observa el resultado y las operaciones son asequibles para una persona. Eso quiere decir que parece que a largo plazo dejará de tener sentido la detección del uso de la IA y simplemente habrá que asumir su utilización. En caso de necesidad de evaluar competencias que impliquen restringir el uso de la IA habrá que diseñar estrategias de evaluación específicas que impidan su utilización.  
     

  • La IA tiene innumerables aplicaciones. En el documento de recomendaciones se hace un análisis detallado de las oportunidades que aparecen en los ámbitos de la docencia y aprendizaje, la investigación y la gestión. Algunas de las aplicaciones más relevantes que se analizan y describen son: 

    • Docencia (profesorado): 
      • Mejorar el diseño de las asignaturas con herramientas que ayudan en la planificación, en la personalización del aprendizaje, en la generación automática de material docente en diversos formatos (texto, audio, video, presentaciones), en la adaptación del material docente a estudiantes con necesidades especiales, en la generación de materiales para gamificación, en el enriquecimiento de los materiales docentes con subtitulados o traducción a otros idiomas, etc.
      • Evolución del modelo de tutorías, mediante la utilización de chatbots para personalizar la atención al estudiantado, resolución de preguntas frecuentes, flexibilización de la atención tutorial.
      • Apoyo en la evaluación, mediante la generación de preguntas de examen, revisión de citación de fuentes, elaboración de rúbricas, análisis de los resultados de evaluación, aplicación de rúbricas en la corrección de trabajos, etc.
    • Aprendizaje (estudiantado): 
      • Apoyo en la generación de ideas y la búsqueda de información; asistencia para la comprensión de textos; realización de autoevaluaciones y autoexámenes; apoyo en la redacción de contenido (texto, imagen y vídeo); uso de chatbots con la información de las asignaturas; aprendizaje de competencias lingüísticas. 
    • Investigación: 
      • Apoyo en la recopilación bibliográfica con resúmenes automáticos y búsqueda de referencias relevantes; generación de material en diversos formatos (texto, audio, vídeo); generación de preguntas de investigación e hipótesis en base a la literatura existente; diseño de experimentos; asistencia en la recogida, extracción, validación, simulación y análisis de los datos; generación de código para experimentos; apoyo en la redacción de textos científicos y elaboración de gráficos e imágenes; traducción de textos para mejorar su divulgación. 
    • Gestión universitaria: 
      • Personalización de la atención a las personas usuarias y la resolución de incidencias; generación de contenidos; agilización de la actualización de la información en webs, incluyendo traducción a otros idiomas; elaboración de informes; soporte a cambios de formato en documentos; apoyo a la generación de código en herramientas informáticas; análisis de datos para toma de decisiones; traducción de textos para internacionalizar procesos.
         
  • Es enorme la cantidad de herramientas basadas en la utilización de la IA que están surgiendo en el mercado. Para poderse orientar os recomendamos que reviséis el catálogo revisado de herramientas aportado desde el Vicerrectorado de Transformación Digital a través del CEPRUD (acceso aquí). Podréis consultar por temáticas o aplicaciones de interés y os recomendamos las herramientas más relevantes en dicho campo. Trataremos de mantener dicho catálogo actualizado.

    En todo caso, se recomienda priorizar el uso de las herramientas de IA aportadas por la Universidad de Granada o de terceros contratadas por la UGR, dado que estas siguen un proceso de verificación de las políticas de privacidad y de seguridad. Estas herramientas serán oportunamente informadas por parte del Vicerrectorado de Transformación Digital a la comunidad universitaria.
     

Analizamos algunas de las herramientas más utilizadas actualmente: Copilot (de Microsoft), ChatGPT (de OpenAI), Gemini (de Google), NotebookLM (de Google) y Perplexity. Iniciamos con dos indicaciones: 

  1. Es muy importante conocer que, por defecto, toda la información que proporcionamos a las herramientas de IA se utiliza para entrenar sus modelos, de modo que, si vamos a compartir información debemos evitar en la medida de lo posible que contenga datos personales o sensibles, ya que estos podrían aparecer en resultados a consultas de otros usuarios. 
  2. Muchas herramientas disponen de mecanismos para deshabilitar el aprendizaje de los datos que se comparten con ellas. Es importante, por tanto, conocer cómo podemos evitar que entrenen sus modelos con nuestros datos, especialmente cuando son sensibles o privados. 

A continuación os damos una serie de recomendaciones para utilizar estas herramientas: 

Copilot (Microsoft)
Acceso Ir al buscador de Microsoft (https://bing.com) y allí pinchar en el icono “Copilot”.
Uso Herramienta de conversación que permite obtener información general. Una limitación que tiene es que en la versión gratuita no se pueden subir ficheros para que los analice.
Protección de datos Si se accede con la cuenta UGR (usuarios @ms.ugr.es que se solicitan aquí), los modelos no se entrenan y los datos están protegidos. Se puede comprobar que aparece un icono de un candado verde que indica que está activa la “Enterprise data protection”. Si no se accede con la cuenta de UGR, no estaríamos protegidos.
Limitaciones Con la versión de UGR no hay acceso a los módulos de Copilot que se integran con Office365 para ayudar a generar documentos Word, presentaciones Powerpoint y fórmulas en Excel. Para eso hay una versión de pago que no está disponible en la UGR.    
Gemini (Google)
Acceso Navegando a la dirección: https://gemini.google.com
Uso Similar a Copilot, con funcionalidad y aspectos parecidos, pero utiliza el modelo de Google, que en algunas comparativas sale mejor parado a fecha actual (la evolución de estos modelos ahora mismo es muy rápida)
Protección de datos Si se utiliza la cuenta UGR (@go.ugr.es) (ver instrucciones de activación), nuestros datos están protegidos. Por tanto, se recomienda hacerlo de este modo. 
Limitaciones En la versión UGR o la gratuita de Google solo se pueden subir imágenes para que las analice, pero no otro tipo de ficheros, como pdf. Es necesaria la versión de pago para ello, no disponible en UGR. La alternativa es NotebookLM (ver abajo).
ChatGPT (OpenAI)
Acceso Navegando a la dirección: https://chatgpt.com/
Uso Similar a Copilot y Gemini.
Protección de datos No disponible con cuenta UGR. Ello implica que los datos no están protegidos. Si se utiliza, se recomienda que se haga con un usuario (no usar accesos anónimos) y además se desactive la opción “Mejorar el modelo para todos” en la sección controles de datos. De lo contrario, estaremos enviando todas nuestras conversaciones y datos para que las aprenda el modelo.  
NotebookLM (Google)
Acceso Navegando a la dirección: https://notebooklm.google
Uso Esta herramienta es diferente a las anteriores, ya que permite subir fuentes de información, como ficheros pdf por ejemplo, y conversar sobre el contenido de los mismos. También es capaz de generar resúmenes e incluso un podcast sobre las fuentes suministradas. Es muy útil para estudiar un contenido o para obtener información de uno o varios documentos extensos haciendo preguntas a la IA sobre su contenido.
Protección de datos Igual que sucede con Gemini, debemos utilizarlo exclusivamente con nuestras cuentas UGR de Google (@go.ugr.es) para que los documentos utilizados no entrenen los modelos y estemos protegidos.
Perplexity (Perplexity AI)
Acceso Navegando a la dirección: https://perplexity.ai
Uso Buscador basado en IA y especializado en aportar referencias precisas sobre las fuentes de las que ha obtenido la información. Es altamente recomendable para poder verificar la veracidad del texto generado por la IA.
Protección de datos En UGR no disponemos de una licencia con protección de datos para este buscador. En el caso de que se utilice, se recomienda utilizarlo con un usuario (no utilizar el acceso anónimo), y configurar dicho usuario para evitar el envío de datos al modelo. Para ello, en la configuración de la cuenta del usuario, se debe seleccionar la opción “Retención de datos de IA” y ponerlo con valor “Desactivado”.