Quizás esta pueda parecer una pregunta filosófica, pero actualmente es un cuestionamiento muy práctico gracias a los recientes avances en inteligencia artificial generativa y los grandes modelos lingüísticos (LLM, por su siglas en inglés). Debido a la adopción generalizada de la tecnología de IA generativa diseñada para predecir e imitar las respuestas humanas, ahora es posible crear, casi sin esfuerzo, textos que realmente parecieran provenir de Wikipedia.
Mi respuesta a esta pregunta es simple: no, no sería lo mismo.
El proceso de crear conocimiento libremente, de compartirlo y de perfeccionarlo con el tiempo, en público y con la ayuda de cientos de miles de personas que lo hacen de forma voluntaria esencialmente le ha dado forma a Wikipedia y a muchos otros proyectos de Wikimedia durante 20 años. Wikipedia contiene conocimiento fidedigno y de fuentes confiables porque las personas han creado, debatido y seleccionado este conocimiento. Además, también se basa en un modelo no comercial abierto, lo que significa que se puede acceder a Wikipedia y compartir su contenido de manera gratuita y siempre será así. En un internet inundado de contenido generado por máquinas, esto quiere decir que Wikipedia se vuelve aún más valiosa.
En los últimos seis meses, el público ha conocido docenas de LLM, entrenados con grandes conjuntos de datos que pueden leer, resumir y generar textos. Wikipedia es uno de los mayores corpus abiertos de información en internet con versiones en más de 300 idiomas. Hasta la fecha, todos los LLM son entrenados con contenido de Wikipedia, y esta casi siempre es la mayor fuente de datos de entrenamiento en sus conjuntos de datos.
Algo que sin duda que se puede hacer con uno de estos nuevos sistemas es tratar de generar artículos de Wikipedia. Claro, las personas lo han intentado. Y, como con certeza quienes nos leen han experimentado de primera mano, estos intentos evidencian los muchos retos de usar LLM para producir lo que los y las wikipedistas llaman conocimiento, es decir, textos e imágenes enciclopédicos fidedignas y de fuentes confiables. Algunas de estas limitaciones incluyen:
- Actualmente, no se verifican los resultados de los LLM, y ya existen ejemplos muy conocidos de personas que usan la IA generativa para intentar hacer sus trabajos. Hay un gran número de situaciones de bajo riesgo, como cuando se piden notas de agradecimiento, planes para unas vacaciones divertidas o esquemas para comenzar un ensayo, cuyos resultados son útiles e inofensivos. Sin embargo, hay otras situaciones que no son tan positivas, como el caso en el que un LLM creaba procesos judiciales y el abogado que usaba las respuestas en un tribunal real fue multado. En otra situación, un médico demostró que un sistema de IA generativa haría diagnósticos deficientes al indicarle los síntomas de pacientes que acudían a la sala de emergencias. Me imagino que, con el tiempo, estos sistemas mejorarán mucho y tendrán fuentes más confiables en una variedad de contextos. Una posibilidad emocionante es que la exigencia de mejores fuentes favorecerá el acceso a investigaciones y libros que pueden usarse en línea, pero llegar a ese punto tomará tiempo y probablemente implique una presión significativa de los reguladores y del público para mejorar de maneras que beneficien a todas las personas.
- Los LLM no pueden usar información con la que no se hayan entrenado para responder a los pedidos. Eso quiere decir que todos los libros del mundo cuyos textos no estén totalmente disponibles en línea, el contenido de investigaciones previas a la era de Internet y la información en idiomas que no sean inglés no son parte de lo que un LLM típico “sabe”. Como consecuencia, los conjuntos de datos que se usan para entrenar los LLM en la actualidad pueden potenciar desigualdades y sesgos existentes en muchas áreas, como la contratación, la medicina y las sentencias penales. Tal vez esto cambie algún día, pero estamos muy lejos de poder acceder libremente a los LLM y luego entrenarlos con cada diferente tipo de información en todos los idiomas que las personas usan en la actualidad para escribir en Wikipedia. E incluso cuando se pueda, se necesitará trabajo adicional para mitigar el sesgo.
- Por último, se ha demostrado que los LLM entrenados con los resultados de LLM son cuantificablemente peores e incluso olvidan cosas que “sabían”, una afección llamada “colapso de modelos”. Esto significa que, para que los LLM sean buenos y mejoren, necesitarán un suministro constante de contenido original escrito por humanos, lo que hace que Wikipedia y otras fuentes de contenidos generados por humanos sean aún más valiosas. Eso también quiere decir que las compañías de IA generativa del mundo deben descubrir cómo mantener las fuentes de contenido humano original, el elemento más crítico de nuestro ecosistema de información, de forma sostenible y en crecimiento a medida que pasa el tiempo.
Estos son solo algunos de los problemas que necesitan resolverse a medida que los usuarios de Internet exploran cómo pueden usarse los LLM. Creemos que los usuarios de internet valorarán cada vez más las fuentes de información confiables que han sido verificadas por personas. Las políticas de Wikipedia y nuestra experiencia de más de una década con el uso del aprendizaje automático para apoyar a los voluntarios humanos brindan valiosas lecciones para este futuro.
Principios del uso de la IA generativa
El contenido generado por máquinas y las herramientas de aprendizaje automático no son algo nuevo para Wikipedia y otros proyectos de Wikimedia. En la Fundación Wikimedia, hemos desarrollado herramientas de aprendizaje automático e IA basadas en los mismos principios que han hecho que Wikipedia sea un recurso tan útil para muchas personas: el enfoque en la moderación de contenido dirigida por humanos y la gestión humana. Seguimos experimentando con nuevas maneras de satisfacer las necesidades de conocimiento de las personas de formas responsables, incluyendo las plataformas de IA generativa, con el objetivo de colocar la contribución y la reciprocidad humanas en primer plano. El equipo de edición de Wikipedia controla todo el contenido generado por las máquinas, edita, mejora e inspecciona todo el trabajo que la IA realiza, además de crear políticas y estructuras para gestionar las herramientas de aprendizaje automático usadas para generar contenido para Wikipedia.
Estos principios pueden constituir un buen punto de partida para el uso de grandes modelos lingüísticos actuales y emergentes. En primer lugar, los LLM deben tener en cuenta cómo sus modelos apoyan a las personas de tres maneras clave:
- Sostenibilidad. La tecnología de la IA generativa tiene el potencial de impactar de forma negativa la motivación humana para crear contenido. Para preservar y alentar a que más personas contribuyan con el bien común aportando su conocimiento, los LLM deben propender a buscar aumentar y apoyar la participación humana en el crecimiento y la creación del conocimiento. Nunca deben obstaculizar o reemplazar la creación humana del conocimiento. Esto se puede lograr si los humanos siempre se involucran y se les da el crédito adecuado por sus contribuciones. Seguir apoyando que los humanos compartan sus conocimientos no solo está en línea con la misión estratégica del movimiento de Wikipedia, sino que será un requisito para continuar expandiendo nuestro ecosistema de información general, que es lo que crea los datos de entrenamiento actualizado en los que los LLM se basan.
- Equidad. Cuando funcionan de manera óptima, los LLM pueden expandir la accesibilidad de la información y ofrecer formas innovadoras de brindarles información a las personas que buscan conocimiento. Para hacer eso, las plataformas necesitan incorporar un sistema de pesos y contrapesos que no perpetúe los sesgos informativos, aumente las brechas de conocimiento, siga borrando las historias y perspectivas tradicionalmente excluidas o contribuya con las vulneraciones de los derechos humanos. Los LLM también deben tener en cuenta cómo identificar, abordar y corregir los sesgos en los datos de entrenamiento que pueden producir resultados inexactos y extremadamente desiguales.
- Transparencia. Los LLM y sus interfaces deben permitir que los humanos entiendan las fuentes de los resultados de los modelos y dejar que puedan verificarlos y corregirlos. Una mayor transparencia en cómo se generan los resultados pueden ayudarnos a entender y luego a mitigar los sesgos sistémicos dañinos. Al permitir que los usuarios de estos sistemas evalúen las causas y consecuencias del sesgo que puede estar presente en los datos de entrenamiento o en los resultados, los creadores y los usuarios pueden ser parte del entendimiento y de la cuidadosa aplicación de estas herramientas.
Una visión de un futuro confiable
Las contribuciones humanas son una parte esencial de Internet. Las personas son el motor que ha impulsado el crecimiento y la expansión en línea, y han creado un lugar increíble para aprender, hacer negocios y conectarse entre sí.
¿Una IA generativa podría reemplazar a Wikipedia? Podría intentarlo, pero esto daría como resultado un reemplazo que nadie realmente quiere. Con las nuevas tecnologías, no hay nada inevitable, al contrario, depende de nosotros escoger lo que es más importante. Podemos priorizar el entendimiento humano y la retribución del conocimiento al mundo, de forma sostenible, equitativa y transparente, como una meta clave de los sistemas de IA generativa y no como una reflexión posterior. Esto ayudaría a mitigar la creciente desinformación y las alucinaciones de los LLM, garantizar que la creatividad humana se reconozca por el conocimiento creado y, lo más importante de todo, garantizar que tanto los LLM como las personas puedan seguir confiando en un ecosistema de información actualizado, confiable y en continua evolución a largo plazo.
Selena Deckelmann es la Directora de Producto y Tecnología de la Fundación Wikimedia.