La inteligencia artificial generativa ha ganado notoriedad en el último año, especialmente ChatGPT, que Reuters informó que rompió el récord de la aplicación de software de consumo de crecimiento más rápido de la historia en febrero pasado. ChatGPT puede realizar diferentes tareas, como generar escritos y responder preguntas.
Por primera vez este otoño, varios profesores han establecido políticas en los programas de estudio con respecto al uso de la inteligencia artificial generativa en las clases, como David McPherson, profesor de ciencias de la computación. Dijo que la universidad solicitó a los profesores que incluyeran información sobre la inteligencia artificial generativa en los programas de estudio.
"Sí, están en el programa de estudio", dijo McPherson. "Creo que utilizamos más o menos la plantilla genérica de Tech. Tienen algún lenguaje para la inteligencia artificial generativa, ya sea permitiéndola o prohibiéndola por completo, así que utilizamos algo así como 'No la uses a menos que digamos que está permitido'".
En particular, Technology-enhanced Learning and Online Strategies recomienda "un enfoque medido" y ofrece sugerencias para que los profesores las sigan, como familiarizarse con la IA para estar mejor informados, establecer expectativas con los estudiantes sobre el uso de la IA y explorar los cambios en el diseño del curso y las evaluaciones.
TLOS también recomienda que los profesores consideren el Código de Honor y cómo se aplica a la IA.
"Aunque la mayoría de los estudiantes se comportan honestamente en el aula, algunos pueden elegir usar herramientas como ChatGPT para cometer deshonestidad académica", dijo la Oficina de Integridad Académica de Pregrado, según TLOS. "Por favor, continúe siendo claro en sus expectativas con su estudiante en relación con el Código de Honor de Pregrado y el uso del software de IA, al igual que haría con otros sitios web que puedan ofrecer a los estudiantes medios para cometer deshonestidad académica. El uso no autorizado de ChatGPT y otro software de IA puede caer bajo varias definiciones de deshonestidad académica en el Código de Honor de Pregrado".
McPherson dijo que podría usar su criterio para determinar si un estudiante utilizó IA para generar un código, ya que se vería extraño. Sin embargo, no sería motivo de una violación del Código de Honor.
"Personalmente, no podría decir con un 100% de precisión si esto fue escrito por ChatGPT u otra cosa", dijo McPherson. "Podría pensar que este código se ve realmente extraño y luego simplemente vigilar a esa persona y ver lo que hace o hablar con ella. Ciertamente hemos hecho eso cuando un estudiante parece tener dificultades para comprender conceptos y de repente nos presenta un código realmente impresionante. Y nosotros decimos: '¿Cómo pasaste de no conocer lo básico a escribir esto realmente genial? ¿De dónde salió y cómo? Explica el código'. Y a veces pueden hacerlo. Tal vez se hayan esforzado mucho y hayan descubierto cómo hacerlo".
O tal vez contrataron a alguien, pero intentamos hablar con ellos en ese caso antes de hacer algo".
Alice Jang, profesora asistente de tecnología de información empresarial, utiliza la inteligencia artificial en su curso. Jang utiliza Packback para publicaciones en el foro de discusión, las cuales el software calificará utilizando un algoritmo de inteligencia artificial. Jang también fomenta el uso de ChatGPT por parte de sus estudiantes, especialmente cuando necesitan comprender conceptos difíciles. Sin embargo, a los estudiantes no se les permite usarlo para completar asignaciones en clase.
"Si escribieras en ChatGPT, '¿Qué es la programación lineal?' Y además de eso, 'Okay, explícalo usando un ejemplo que un estudiante universitario sin conocimientos estadísticos o que no haya tomado ninguna clase de optimización pueda entender esto', entonces hace un buen trabajo tratando de explicar a su nivel. Así que les animo mucho a usarlo", dijo Jang.
Jang dijo que hay una baja posibilidad de que los estudiantes hagan mal uso de ChatGPT en su clase porque es un modelo de lenguaje, es decir, determina la probabilidad de palabras analizando datos de texto. En su clase, Jang enseña modelos estadísticos y de optimización, que según ella no están relacionados con modelos de lenguaje.
Joseph Merola, presidente del Senado de la Facultad y profesor de química, no tiene una política sobre ChatGPT u otra IA para sus estudiantes porque no ve cómo podrían aprovechar la IA en sus clases. Sin embargo, en una de sus clases, se asignará un ensayo al final del semestre.
"Aunque no he desarrollado una política en este momento, probablemente les daré orientación al final, mientras lo escriben, para decirles qué deberían y qué no deberían hacer con ChatGPT", dijo Merola. "Y siendo honesto contigo, como es algo que todavía estoy desarrollando en mi mente, no estoy realmente seguro de lo que voy a decir".
En los programas de clase del profesor de escritura creativa Matthew Vollmer, les dice a los estudiantes que se permite el uso de generadores de IA para la generación de ideas, investigación y retroalimentación.
"Y si lo usan, solo díganmelo porque tengo curiosidad de cómo podrían estar usándolo. Mi impresión es que no lo están usando en absoluto y parece que muchos de ellos temen usarlo", dijo Vollmer.
Vollmer afirmó que utilizar la IA para generar ideas no socava la capacidad de un escritor, ya que los escritores siempre han utilizado recursos como inspiración.
"Digamos que tienes una historia, y hay un escenario en un club de jazz en la ciudad de Nueva York", dijo Vollmer. "Entonces buscas imágenes de Google, jazz rock, y así se establece. Describe lo que veo en esa imagen y úsala. Quiero decir, los escritores utilizan motores de búsqueda e internet para buscar todo tipo de cosas, así que no lo veo muy diferente a eso".
Vollmer también señaló que la IA no siempre genera las mejores ideas, lo que podría llevar a un escritor a utilizarla como inspiración para idear mejores ideas.
A los estudiantes en las clases de Vollmer se les prohíbe utilizar la IA para hacerse pasar por ellos mismos al escribir. Similar al enfoque de McPherson sobre la generación de código de IA, Vollmer dijo que también podría ser obvio cuando la IA genera escritura, pero no lo sabría con certeza absoluta.
En última instancia, Vollmer no cree que la IA reemplazará a los escritores.
"No funciona por sí sola. Requiere estímulo", dijo Vollmer.
Así que siempre habrá un elemento humano en los escritores. ¿Cambiará la forma en que escribimos? Sin duda. Pero al pensar en formas de estimularlo para hacer cosas que requieran una producción de alguna manera buena, necesitarás imaginación e intuición, cosas que son de naturaleza humana".
Vollmer también encabeza un grupo de trabajo dentro del departamento de inglés. Según él, Kelly Pender, la directora del departamento, decidió crear el grupo de trabajo para evaluar los desafíos y oportunidades de trabajar con la inteligencia artificial cuando se está desarrollando más rápido de lo que la gente se da cuenta. Dado que la IA es un modelo de lenguaje, el cuerpo docente recibe constantemente actualizaciones sobre lo que la IA es capaz de hacer y cómo los estudiantes pueden usarla o abusar de ella. El grupo de trabajo es una forma de discutir cómo abordar y pensar en estos problemas.
Además de Vollmer, Jennifer Lawrence, directora del Centro de Escritura; Julie Mengert, directora del Programa de Escritura Universitaria; Jimmy Ivory, profesor de inglés; y Avery Wiscomb, profesor de inglés también forman parte del grupo de trabajo. Según Vollmer, la investigación de Ivory y Wiscomb involucra tecnología y computación.
Dan Dunlap, un profesor de informática especializado en ética en computación y tecnología, comparó el surgimiento de la IA con la industrialización. Dijo que a pesar del temor de que las máquinas reemplacen a las personas, Dunlap cree que ha ocurrido lo contrario. Sin embargo, todavía hay cosas desconocidas en torno a la IA.
"Ha transformado diferentes tipos de trabajo, diferentes tipos de labor, y ciertamente eso va a ser el caso aquí", dijo Dunlap. "No podemos anticipar lo que va a ser y va a haber muchas consecuencias no deseadas, y cómo la IA y los modelos de lenguaje grandes y todas estas cosas terminan reemplazando, ya lo están haciendo. Supongo que un temor es que está haciendo mucho más de lo que pensamos. Estamos leyendo cosas que pensamos que están escritas puramente por humanos y en muchos casos, hay IA generativa involucrada en gran parte de lo que consumimos, y no solo leer, sino también en recomendaciones y todas esas otras cosas en las que estos modelos están involucrados".
Merola cree que para que las personas puedan utilizar la IA, el software mismo debe estar acostumbrado a los humanos.
"Porque para poder utilizar eficazmente la IA, necesitamos asegurarnos de que los programas estén en sintonía con nuestra humanidad y, por lo tanto, con las humanidades", dijo Merola. "Y las artes deben ser una parte importante de esto. Si vamos a usarlo para crear arte, tal vez parezca obvio que necesitamos tener artistas y humanistas, pero también si algo va a intentar comprender una reacción humana a algo, entonces es mejor que esté programado para entender esa reacción humana. Y por lo tanto, no es solo para científicos, sino para toda la gama de la experiencia humana".