Consideraciones esenciales para abordar la posibilidad de la IA
HogarHogar > Noticias > Consideraciones esenciales para abordar la posibilidad de la IA

Consideraciones esenciales para abordar la posibilidad de la IA

Aug 04, 2023

El lanzamiento del modelo de lenguaje grande de inteligencia artificial (IA) ChatGPT fue recibido con entusiasmo (“¡Guau! Esta herramienta puede escribir tan bien como los humanos”) y miedo (“Guau… esta herramienta puede escribir tan bien como los humanos”).

ChatGPT fue solo la primera de una ola de nuevas herramientas de inteligencia artificial diseñadas para imitar la comunicación humana a través de texto. Desde el lanzamiento de ChatGPT en noviembre de 2022, han hecho su debut nuevos chatbots de IA, incluidos Bard de Google y ChatGPT para Microsoft Bing, y han surgido nuevas herramientas de IA generativa que utilizan la tecnología GPT, como Chat with any PDF. Además, ChatGPT se volvió más avanzado: pasó de usar GPT-3 a GPT-3.5 para la versión gratuita y GPT-4 para usuarios premium.

Con el creciente acceso a diferentes tipos de chatbots de IA y los crecientes avances en la tecnología de IA, “prevenir las trampas de los estudiantes a través de la IA” ha pasado a ocupar el primer lugar en la lista de preocupaciones de los profesores para 2023 (Lucariello, 2023). ¿Debería prohibirse ChatGPT en clase o debería fomentarse su uso? ¿Debería rediseñar su declaración del programa de estudios de integridad académica o es suficiente la actual? ¿Debería cambiar la forma en que realiza exámenes y diseña tareas?

Mientras lidia con el papel que desempeña la IA a la hora de ayudar a los estudiantes a hacer trampa, aquí hay seis puntos clave a tener en cuenta:

En la siguiente sección, discutiré cada uno de estos puntos.

A veces, cuando surge una nueva tecnología que amenaza con alterar la norma, hay una reacción instintiva que conduce a una prohibición total de la tecnología. Simplemente eche un vistazo al artículo, “Aquí están las escuelas y universidades que han prohibido el uso de ChatGPT por temor a plagio y desinformación” (Nolan, 2023), y encontrará varios distritos escolares de EE. UU. K-12, universidades internacionales y incluso jurisdicciones enteras en Australia que rápidamente prohibieron el uso de ChatGPT después de su debut.

Pero prohibir los chatbots de IA “corre el riesgo de ampliar la brecha entre quienes pueden aprovechar el poder de esta tecnología y quienes no, perjudicando en última instancia la educación y las perspectivas profesionales de los estudiantes” (Canales, 2023, párr. 1). Las tecnologías ChatGPT, GPT-3 y GPT-4 ya se están integrando en varias carreras, desde derecho (por ejemplo, “una startup respaldada por OpenAI lleva la tecnología de chatbot a la primera gran firma de abogados”) hasta bienes raíces (“los agentes inmobiliarios dicen que pueden hacerlo”). No me imagino trabajando sin ChatGPT ahora”). Los políticos están utilizando ChatGPT para redactar proyectos de ley (por ejemplo, "AI redactó un proyecto de ley para regular la IA. Ahora el representante Ted Lieu quiere que el Congreso lo apruebe"). El Comité Nacional Demócrata descubrió que el uso de contenido generado por IA funcionó tan bien, y a veces mejor, que el contenido generado por humanos para la recaudación de fondos (“Un asistente de campaña no escribió ese correo electrónico. La IA sí lo hizo”).

En última instancia, “el uso eficaz de ChatGPT se está convirtiendo en una habilidad muy valorada, lo que afecta las demandas de la fuerza laboral” (Canales, 2023, párr. 3). Los estudiantes universitarios que no tienen la oportunidad de aprender cuándo y cómo utilizar chatbots de IA en su campo de estudio estarán en desventaja en la fuerza laboral en comparación con aquellos que sí la tienen, ampliando así la brecha digital.

Podría resultar tentador recurrir a opciones de evaluación de baja tecnología, como exámenes orales y ensayos escritos a mano, como forma de evitar las trampas con la IA. Sin embargo, estas técnicas de evaluación anticuadas a menudo crean nuevas barreras para el aprendizaje, especialmente para los estudiantes discapacitados, los estudiantes de inglés, los estudiantes neurodiversos y cualquier otro estudiante que dependa de la tecnología para ayudar en su pensamiento, comunicación y aprendizaje.

Tomemos, por ejemplo, un estudiante con destreza manual limitada que depende de herramientas de conversión de voz a texto para escribir, pero en su lugar se le pide que escriba a mano las respuestas del examen en un libro azul. O un estudiante de inglés que depende de una aplicación para traducir palabras mientras escribe ensayos. O un estudiante neurodiverso que tiene dificultades con la comunicación verbal y no es capaz de mostrar su verdadera comprensión del contenido del curso cuando el instructor lo llama en frío como forma de evaluación.

Prohibir el uso de la tecnología y recurrir a opciones de baja tecnología para los exámenes pondría a estos estudiantes, y a otros que dependen de la tecnología como ayuda, en desventaja e impactaría negativamente en su experiencia de aprendizaje y éxito académico. Tenga en cuenta que, si bien algunos de los estudiantes en estos ejemplos pueden tener una adaptación por discapacidad documentada que requiere una forma de evaluación alternativa, no todos los estudiantes que dependen de la tecnología como ayuda para su pensamiento, comunicación o aprendizaje tienen una discapacidad documentada para obtener la mismos alojamientos. Además, los exámenes que requieren que los estudiantes demuestren sus conocimientos en el momento, como los exámenes orales, pueden contribuir o intensificar los sentimientos de estrés y ansiedad y, por lo tanto, obstaculizar el proceso de aprendizaje de muchos, si no de todos, los estudiantes (consulte “¿Por qué su El cerebro sometido a estrés no aprende correctamente”).

Los detectores de texto con IA no funcionan de la misma manera que los detectores de plagio. Los verificadores de plagio comparan texto escrito por humanos con otro texto escrito por humanos. Los detectores de texto de IA adivinan la probabilidad de que un texto esté escrito por humanos o por IA. Por ejemplo, el detector de contenido de IA de Sapling “utiliza un sistema de aprendizaje automático (un transformador) similar al utilizado para generar contenido de IA. En lugar de generar palabras, el detector de IA genera la probabilidad que cree [énfasis agregado] que cada palabra o token en el texto de entrada sea generado por IA o no” (2023, párr. 7).

Permítanme repetir, los detectores de texto de IA adivinan si un texto está escrito por IA o no.

Como tal, muchas de las herramientas de detección de texto de IA establecen específicamente que no deben usarse para detectar o castigar a los estudiantes por hacer trampa:

En una revisión empírica de los detectores de generación de texto con IA, Sadasivan y sus colegas (2023) encontraron “que varios detectores de texto con IA no son confiables en escenarios prácticos” (p. 1). Además, el uso de detectores de texto de IA puede ser particularmente dañino para los estudiantes de inglés, los estudiantes con discapacidades de comunicación y otras personas a quienes se les enseñó a escribir de una manera que coincida con el texto generado por IA o que usan chatbots de IA para mejorar la calidad y claridad del texto. su escritura. Gegg-Harrison (2023) compartió esta preocupación:

Mi mayor preocupación es que las escuelas escuchen las exageraciones y decidan usar detectores automatizados como GPTZero y someter a sus estudiantes a 'Pruebas de Turing inversas', y sé que los estudiantes que se verán más afectados son aquellos a los que ya vigilamos más: aquellos que pensamos que "no deberían" ser capaces de producir una prosa clara y limpia del tipo que generan los LLM. Los hablantes no nativos. Los hablantes de dialectos marginados (párr. 7).

Antes de considerar el uso de un detector de texto con IA para identificar posibles casos de trampa, eche un vistazo a esta presentación de diapositivas de detectores de texto con IA de acceso abierto, que fue diseñada para ayudar a los educadores a tomar una decisión informada sobre el uso de estas herramientas en su práctica.

Los chatbots de IA han elevado la importancia de la integridad académica. Si bien hacer pasar un texto generado por IA como generado por humanos parece una clara violación de la integridad académica, ¿qué pasa con el uso de chatbots de IA para revisar el texto y mejorar la calidad de la escritura y el lenguaje? ¿O qué tal si utilizamos chatbots de IA para generar listas de referencias para un artículo? O, ¿qué tal si utilizamos un chatbot de IA para encontrar errores en un código y facilitar su depuración?

Los estudiantes deben tener oportunidades para discutir qué papel deben y no deben desempeñar los chatbots de IA y otras herramientas de IA en su aprendizaje, pensamiento y escritura. Sin estas conversaciones, las personas e incluso las organizaciones se ven obligadas a intentar resolver esto por sí mismas, a menudo a expensas propias o de otros. Tomemos, por ejemplo, la empresa de apoyo a la salud mental Koko, que decidió realizar un experimento con usuarios que buscaban apoyo emocional aumentando y, en algunos casos, reemplazando las respuestas generadas por humanos con respuestas generadas por GPT-3. Cuando los usuarios descubrieron que las respuestas que recibieron no estaban enteramente escritas por humanos, se sorprendieron y se sintieron engañados (Ingram, 2023). Luego, estaba el abogado que usó ChatGPT para crear un escrito legal para el Tribunal de Distrito Federal, pero fue atrapado por hacerlo porque el escrito incluía opiniones judiciales y citas legales falsas (Weiser & Schweber, 2023). Parece que todo el mundo está intentando descubrir qué papel podrían desempeñar ChatGPT y otros chatbots de IA a la hora de generar texto o ayudar a escribir.

Los cursos universitarios pueden ser un buen lugar para iniciar conversaciones sobre integridad académica. Sin embargo, la integridad académica suele ser parte del plan de estudios oculto, algo que se espera que los estudiantes sepan y comprendan, pero que no se discute explícitamente en clase. Por ejemplo, a los profesores normalmente se les exige que incluyan declaraciones estándar de integridad académica en sus programas de estudios. Mi universidad requiere el siguiente texto en cada plan de estudios:

Dado que la integridad de la empresa académica de cualquier institución de educación superior requiere honestidad en los estudios y la investigación, se requiere honestidad académica de todos los estudiantes de la Universidad de Massachusetts Amherst. La deshonestidad académica está prohibida en todos los programas de la Universidad. La deshonestidad académica incluye, entre otros: trampa, invención, plagio y facilitación de la deshonestidad. Se podrán imponer sanciones apropiadas a cualquier estudiante que haya cometido un acto de deshonestidad académica. Los instructores deben tomar medidas razonables para abordar la mala conducta académica. Cualquier persona que tenga motivos para creer que un estudiante ha cometido deshonestidad académica debe comunicar dicha información al instructor del curso correspondiente lo antes posible. Los casos de deshonestidad académica que no estén relacionados con un curso específico deben comunicarse al jefe o presidente del departamento correspondiente. Dado que se espera que los estudiantes estén familiarizados con esta política y los estándares comúnmente aceptados de integridad académica, el desconocimiento de dichos estándares normalmente no es evidencia suficiente de falta de intención. [énfasis añadido] (Universidad de Massachusetts Amherst, 2023).

Si bien existe un documento detallado en línea que describe las trampas, la invención, el plagio y la facilitación de la deshonestidad, es poco probable que los estudiantes hayan tenido tiempo para explorar o discutir ese documento; y el documento no se ha actualizado para incluir cómo podrían verse estos comportamientos en la era de los chatbots de IA. Aún así, se espera que los estudiantes demuestren integridad académica.

Lo que hace que esto sea aún más desafiante es que si nos fijamos en los Términos de uso de OpenAI, establecen que los usuarios son propietarios de la salida (cualquier cosa que soliciten a ChatGPT que genere) y pueden usar la salida para cualquier propósito, incluso fines comerciales, siempre y cuando cumplan. por los Términos. Sin embargo, los Términos de uso también establecen que los usuarios no pueden presentar texto generado por ChatGPT como si fuera generado por humanos. Entonces, entregar un ensayo escrito completamente en ChatGPT es una clara violación de los Términos de uso (y se considera hacer trampa), pero ¿qué pasa si los estudiantes solo usan algunas oraciones escritas en ChatGPT en un ensayo? ¿O utilizar ChatGPT para reescribir algunos de los párrafos de un artículo? ¿Son estos ejemplos una violación de los Términos de uso o la integridad académica de OpenAI?

Los estudiantes necesitan oportunidades para discutir las cuestiones éticas que rodean el uso de chatbots de IA. Estas conversaciones pueden y deben comenzar en entornos de educación formal. A continuación se muestran algunas formas en que puede iniciar estas conversaciones:

Si necesita ejemplos de declaraciones de integridad académica para usarlas como inspiración, consulte el documento Políticas de aula para herramientas generativas de IA elaborado por Lance Eaton.

Actualmente hay más de 550 nuevas empresas de IA que han recaudado un total combinado de 14 mil millones de dólares en financiación (Currier, 2022). La IA será una parte importante del futuro de los estudiantes; y como tal, los estudiantes necesitan la oportunidad de aprender con y sobre la IA.

Aprender con IA implica brindar a los estudiantes la oportunidad de utilizar tecnologías de IA, incluidos los chatbots de IA, para ayudarlos a pensar y aprender. Si bien podría parecer que los estudiantes solo usan chatbots de IA para hacer trampa, de hecho, es más probable que los usen para ayudar con cosas como la lluvia de ideas, mejorar la calidad de su escritura y el aprendizaje personalizado. La IA puede ayudar al aprendizaje de varias maneras diferentes, incluido servir como “tutor de IA, entrenador de IA, mentor de IA, compañero de equipo de IA, herramienta de IA, simulador de IA y estudiante de IA” (Mollick & Mollick, 2023, pág.1). Los chatbots de IA también pueden proporcionar explicaciones bajo demanda, experiencias de aprendizaje personalizadas, apoyo al pensamiento crítico y creativo, apoyo a la lectura y la escritura, oportunidades de aprendizaje continuo y refuerzo de conocimientos básicos (Nguyen et al., 2023; Trust et al., 2023). Tate y sus colegas (2023) afirmaron que el uso de chatbots de IA podría ser ventajoso para quienes tienen dificultades para escribir bien, incluidos los hablantes no nativos y las personas con problemas de lenguaje o aprendizaje.

Aprender sobre IA significa brindar a los estudiantes la oportunidad de interrogar críticamente las tecnologías de IA. Los chatbots de IA pueden proporcionar información falsa, engañosa, dañina y sesgada. A menudo reciben capacitación con datos “extraídos” (o lo que podría considerarse “robado”) de la web. El texto en el que están formados privilegia ciertas formas de pensar y escribir. Estas herramientas pueden servir como “superdifusores de información errónea” (Brewster et al., 2023). Muchas de estas herramientas generan dinero con mano de obra gratuita o mano de obra extranjera barata. Por lo tanto, los estudiantes deben aprender a examinar críticamente la producción, distribución, propiedad, diseño y uso de estas herramientas para tomar una decisión informada sobre si usarlas y cómo en su campo de estudio y carreras futuras. Por ejemplo, los estudiantes de un curso de ciencias políticas podrían examinar la ética del uso de un chatbot de IA para crear anuncios de campaña personalizados basados ​​en información demográfica. O bien, los estudiantes de un curso de negocios podrían debatir si las empresas deberían exigir el uso de chatbots de IA para aumentar la productividad. O bien, los estudiantes de un curso educativo podrían investigar cómo los chatbots de IA ganan dinero mediante el uso, la venta y el intercambio de datos de los usuarios y reflexionar sobre si los beneficios de utilizar estas herramientas superan los riesgos (por ejemplo, invadir la privacidad de los estudiantes, revelar sus datos).

Dos recursos que le ayudarán a empezar a ayudar a los estudiantes a evaluar críticamente las herramientas de IA son el plan de estudios de educación cívica de la tecnología y la guía de alfabetización mediática crítica para analizar las herramientas de escritura de IA.

Es más probable que los estudiantes hagan trampa cuando se centran más en las puntuaciones (calificaciones) que en el aprendizaje (Anderman, 2015), hay mayor estrés, presión y ansiedad (Piercey, 2020), hay una falta de atención a la integridad académica, confianza y construcción de relaciones (Lederman, 2020), el material no se percibe como relevante o valioso para los estudiantes (Simmons, 2018) y la instrucción se percibe como deficiente (Piercey, 2020).

La parte 2 estará disponible el viernes 4 de agosto. La parte 2 analiza cómo se pueden rediseñar las tareas utilizando el modelo CONFIANZA para que sirva como herramienta pedagógica.

Torrey Trust, PhD, es profesor asociado de tecnología del aprendizaje en el Departamento de Formación Docente y Estudios Curriculares de la Facultad de Educación de la Universidad de Massachusetts Amherst. Su trabajo se centra en el examen crítico de la relación entre enseñanza, aprendizaje y tecnología; y cómo la tecnología puede mejorar el aprendizaje de profesores y estudiantes. En 2018, Dr. Trust fue seleccionado como uno de los ganadores del premio ISTE Making IT Happen, que "honra a educadores y líderes destacados que demuestran un compromiso, liderazgo, coraje y perseverancia extraordinarios para mejorar las oportunidades de aprendizaje digital para los estudiantes".

Referencias

Anderman, E. (20 de mayo de 2015). Los estudiantes hacen trampa para obtener buenas calificaciones. ¿Por qué no hacer que el aula se centre en el aprendizaje y no en las pruebas? La conversación. https://theconversation.com/students-cheat-for-good-grades-why-not-make-the-classroom-about-learning-and-not-testing-39556

Brewster, J., Arvanitis, L. y Sadeghi, M. (enero de 2023). El próximo gran superdifusor de desinformación: cómo ChatGPT podría difundir información errónea tóxica a una escala sin precedentes. Guardia de noticias. https://www.newsguardtech.com/misinformation-monitor/jan-2023/

Canales, A. (2023, 17 de abril). ChatGPT llegó para quedarse. Las pruebas y el plan de estudios deben adaptarse para que los estudiantes tengan éxito. Los 74 millones. https://www.the74million.org/article/chatgpt-is-here-to-stay-testing-curriculum-must-adapt-for-students-to-succeed/

REPARTO (2018). Pautas de diseño universal para el aprendizaje versión 2.2. http://udlguidelines.cast.org

Currier, J. (2022, diciembre). El mapa del mercado de tecnología generativa de NFX. NFX. https://www.nfx.com/post/generative-ai-tech-market-map

Gegg-Harrison, W. (27 de febrero de 2023). Contra el uso de GPTZero y otras herramientas de detección de LLM en la escritura de los estudiantes. Medio. https://writerethink.medium.com/against-the-use-of-gptzero-and-other-llm-detection-tools-on-student-writing-b876b9d1b587

GPTZero. (Dakota del Norte). https://gptzero.me/

Ingram, D. (2023, 14 de enero). Una empresa de tecnología de salud mental realizó un experimento de inteligencia artificial con usuarios reales. Nada impide que las aplicaciones realicen más. Noticias NBC. https://www.nbcnews.com/tech/internet/chatgpt-ai-experiment-mental-health-tech-app-koko-rcna65110

Kirchner, JH, Ahmad, L., Aaronson, S. y Leike, J. (2023, 31 de enero). Nuevo clasificador de IA para indicar texto escrito por IA. OpenAI. https://openai.com/blog/new-ai-classifier-for-indicating-ai-write-text

Lederman, D. (21 de julio de 2020). ¿La mejor manera de dejar de hacer trampa en los cursos en línea? Enseña mejor. Dentro de la educación superior. https://www.insidehighered.com/digital-learning/article/2020/07/22/technology-best-way-stop-online-cheating-no-experts-say-better

Lucariello, K. (2023, 12 de julio). El informe Time for Class 2023 muestra la preocupación número uno de los profesores: evitar que los estudiantes hagan trampa a través de la IA. Tecnología del campus. https://campustechnology.com/articles/2023/07/12/time-for-class-2023-report-shows-number-one-faculty-concern-preventing-student-cheating-via-ai.aspx

Mollick, E. y Mollick, L. (2023). Asignación de IA: siete enfoques para estudiantes, con indicaciones. ArXiv. https://arxiv.org/abs/2306.10052

Nguyen, T., Cao, L., Nguyen, P., Tran, V. y Nguyen P. (2023). Capacidades, beneficios y función de ChatGPT en la enseñanza y el aprendizaje de la química en las escuelas secundarias vietnamitas. EdArXiv. https://edarxiv.org/4wt6q/

Nolan, B. (30 de enero de 2023). Estas son las escuelas y universidades que han prohibido el uso de ChatGPT por temor a plagio y desinformación. Business Insider. https://www.businessinsider.com/chatgpt-schools-colleges-ban-plagiarism-misinformation-education-2023-1

Piercey, J. (9 de julio de 2020). ¿La instrucción remota facilita las trampas? UC San Diego hoy. https://today.ucsd.edu/story/does-remote-instruction-make-cheating-easier

Detector de contenido de IA de Sapling. (Dakota del Norte). https://sapling.ai/ai-content-detector

Tate, TP, Doroudi, S., Ritchie, D., Xu, Y. y Uci, MW (2023, 10 de enero). Investigación educativa y escritura generada por IA: afrontar el tsunami que se avecina. EdArXiv. https://doi.org/10.35542/osf.io/4mec3

Simmons, A. (27 de abril de 2018). Por qué los estudiantes hacen trampa y qué hacer al respecto. Edutopía. https://www.edutopia.org/article/why-students-cheat-and-what-do-about-it

Sinha, T. y Kapur, M. (2021). Cuando la resolución de problemas seguida de instrucción funciona: evidencia de fracaso productivo. Revisión de la investigación educativa, 91(5), 761-798.

Trust, T., Whalen, J. y Mouza, C. (2023). ChatGPT: desafíos, oportunidades e implicaciones para la formación docente. Cuestiones contemporáneas en tecnología y formación docente, 23(1), 1-23.

Universidad de Massachusetts Amherst. (2023). Declaraciones de programas de estudios requeridas para los cursos presentados para su aprobación. https://www.umass.edu/senate/content/syllabi-statements

Weiser, B. y Schweber, N. (8 de junio de 2023). El abogado de ChatGPT se explica. Los New York Times. https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html

Mientras lidia con el papel que desempeña la IA a la hora de ayudar a los estudiantes a hacer trampa, aquí hay seis puntos clave a tener en cuenta:1. Prohibir los chatbots de IA puede exacerbar la brecha digital2. Prohibir el uso de la tecnología en los exámenes puede crear una experiencia de aprendizaje inaccesible y discriminatoria.2. Prohibir el uso de la tecnología en los exámenes puede crear una experiencia de aprendizaje inaccesible y discriminatoria3. Los detectores de texto de IA no están destinados a detectar a los estudiantes haciendo trampa.4. Rediseñar las declaraciones de integridad académica es esencial.5. Los estudiantes necesitan oportunidades para aprender con y sobre la IA6. Rediseñar las tareas puede reducir la posibilidad de hacer trampa con la IA.Referencias