Profesores debaten sobre los beneficios y desventajas del uso de la inteligencia artificial en proyectos de investigación de estudiantes.
La inteligencia artificial está siendo utilizada en las clases universitarias de Nueva Escocia.
Los profesores opinan que cómo se utiliza es importante.
A medida que la inteligencia artificial se vuelve más común en las aulas universitarias, algunos profesores están evaluando los beneficios y desventajas de que los estudiantes la utilicen en proyectos de investigación.
Dos profesores opinan sobre cómo los modelos de lenguaje de gran tamaño pueden ayudar o dificultar la investigación de los estudiantes.
Uno de los profesores de la Universidad de Dalhousie ha dicho que no permitirá que sus estudiantes utilicen inteligencia artificial en sus clases, para que puedan aprender de sus errores en lugar de buscar la respuesta correcta.
(silvabom/Shutterstock)
A medida que la inteligencia artificial se vuelve más común en las aulas universitarias, algunos profesores están evaluando los beneficios y desventajas de que los estudiantes la utilicen en proyectos de investigación.
Recientemente, un profesor de Halifax emitió una política en la que no permite el uso de inteligencia artificial, como el modelo de lenguaje de gran tamaño ChatGPT, en sus clases.
Los modelos de lenguaje de gran tamaño son un tipo de inteligencia artificial que pueden responder a solicitudes de traducciones, resúmenes y otros contenidos basados en inmensas cantidades de información escrita alimentada en los sistemas.
Ajay Parasram, quien enseña historia y estudios de desarrollo internacional en la Universidad de Dalhousie, dice que la inteligencia artificial es una herramienta que puede facilitar el proceso de descubrimiento, pero también puede excluir información importante.
Se sabe que la inteligencia artificial tiene sesgos, y Parasram dice que limita los resultados de búsqueda solo a artículos revisados por pares y revistas de alto nivel que refuerzan cierto discurso intelectual.
"Son todas las cosas que ves en el fondo, en los márgenes, todas las cosas que no estabas buscando, eso es parte de la alegría y emoción del aprendizaje", dijo Parasram a Mainstreet Halifax de CBC Radio el miércoles.
"Y temo que los estudiantes que están aprendiendo a hacer investigación se estén adelantando a sí mismos solo buscando la respuesta correcta.".
El profesor dijo que si los estudiantes utilizan inteligencia artificial para su investigación, sería un perjuicio para su propia experiencia de aprendizaje.
Adoptó esta regla como una forma de fomentar que los estudiantes "tomen el control de su propio aprendizaje".
"Creo que todavía no estamos en el punto en el que podamos confiar en la tecnología para eliminar gran parte del proceso de pensamiento crítico", dijo.
"Porque siento que hemos luchado tanto para que el pensamiento crítico esté en el centro de gran parte de nuestro aprendizaje y no podemos simplemente desecharlo ahora".
¿Cuánto afecta, para bien y para mal, la IA a la información? Primer foro de debate en Zaragoza
El Ayuntamiento de Zaragoza ha acogido hoy el primer foro de debate sobre inteligencia artificial e información organizado por Periodismo 2030. Descubre las conclusiones de la encuesta nacional sobre medios de comunicación en relación a la IA.Sharon Lauricella, profesora de comunicación y estudios de medios digitales en la Universidad de Ontario Tech, ha adoptado un enfoque diferente.
Dijo que les anima a sus estudiantes a utilizar modelos de lenguaje de gran tamaño en sus clases, porque están disponibles y deben saber cómo utilizarlos.
"Les doy la analogía de que ... estos instrumentos son una herramienta, pero si le doy a alguien una motosierra y no le enseño cómo usarla, alguien saldrá herido, ¿verdad?", dijo Lauricella.
"Y lo mismo se aplica a esta tecnología.
Las personas necesitan saber cómo usarla correctamente y luego pueden usarla de manera segura".
Lauricella dijo que los modelos de lenguaje de gran tamaño, como ChatGPT, a menudo contienen información obsoleta o incorrecta, por lo que enseña a sus estudiantes a considerar qué información puede no estar mostrándoles y cómo reformular preguntas para obtener las respuestas que desean.
Dijo que también se puede utilizar para resumir información, ayudar a formar ideas y verificar la gramática en las tareas, lo que ella llama los pilares de un proyecto de investigación.
Pero está de acuerdo con Parasram en que los modelos de lenguaje de gran tamaño no fueron diseñados para proporcionar una investigación creíble.
Todavía se requiere pensamiento crítico.
"Puede ahorrarnos tiempo, pero en cuanto a hacer investigación primaria, esa es solo una habilidad fundamental que todos los estudiantes necesitan aprender a hacer, que [ChatGPT] simplemente no es capaz", dijo.
Lauricella dijo que sus estudiantes pueden utilizar un modelo de lenguaje de gran tamaño para hacer investigaciones preliminares, pero quiere que su propio trabajo sea único y reflexivo.
Dijo que si sus estudiantes utilizan inteligencia artificial en su trabajo, deben revelar para qué lo utilizaron e incluirlo al final de su tarea.
"Eso, creo, es fundamental que los estudiantes tengan que revelar, que tengan que ser transparentes acerca de su uso", dijo.
"Así que creo que eso es bastante importante.
Debemos dar crédito donde se debe, incluso si el instrumento no es sensible".
Aún así, Parasram dijo que es importante recordar a los estudiantes que pueden cometer errores.
"Hay tanta presión sobre ellos para obtener la respuesta correcta y no hay suficiente oportunidad para el proceso de descubrimiento intelectual y la alegría", dijo.
"Y pienso en la universidad en mis clases como una oportunidad para que los estudiantes tengan las rueditas de entrenamiento, ¿sabes? Cometer errores.
Salir y probar un proceso, y lo que termina ocurriendo es que los estudiantes producen trabajos absolutamente increíbles".