Pode parecer uma pergunta filosófica, mas atualmente essa é uma pergunta bastante prática, considerando os recentes avanços na inteligência artificial generativa e nos modelos de linguagem de grande escala (do inglês large language models, ou LLMs). Devido ao uso generalizado da tecnologia de IA generativa, projetada para prever e imitar respostas humanas, agora é possível criar, quase sem esforço, textos que parecem ter saído da Wikipédia.
Minha resposta a essa pergunta é simples: não, não seria a mesma coisa.
O processo de criar conhecimento de forma livre, compartilhá-lo e aperfeiçoá-lo ao longo do tempo, publicamente e com a ajuda de centenas de milhares de pessoas voluntárias, é o que, há 20 anos, tem definido a Wikipédia e os diversos outros projetos da Wikimedia. A Wikipédia contém conhecimento confiável e de fontes seguras justamente porque esses conteúdos são criados, debatidos e selecionados por pessoas. Ela também se baseia em um modelo aberto e não comercial, o que significa que a Wikipédia é livre para acessar e compartilhar, e sempre será. E em uma internet inundada de conteúdos gerados por máquinas, isso significa que a Wikipédia tem ainda mais valor.
Nos últimos seis meses, dezenas de LLMs foram lançados ao público, treinados com base em amplos conjuntos de dados capazes de ler, resumir e gerar textos. A Wikipédia é uma das maiores bases abertas de informação da internet, com versões em mais de 300 idiomas. Até o momento, todos os LLMs são treinados com base nos conteúdos da Wikipédia, e ela é quase sempre a maior fonte de dados de treinamento nos conjuntos de dados desses LLMs.
Uma coisa óbvia a se fazer com alguma desses novos sistemas é tentar gerar artigos da Wikipédia. É claro que as pessoas já tentaram. E, tenho certeza de que muitos leitores já perceberam isso em primeira mão, essas tentativas mostram muitos desafios no uso de LLMs para produzir o que wikipedistas chamam de conhecimento, ou seja, textos e imagens confiáveis, em formato enciclopédico, com fontes seguras. Algumas dessas limitações incluem as seguintes:
- Atualmente, os resultados dos LLMs não passam por uma checagem de fatos, e já há muitos casos conhecidos de pessoas que usam a IA generativa para tentar realizar seus trabalhos. Há inúmeras situações de baixo risco em que os resultados podem ser úteis sem causar nenhum risco, como prompts para criar textos de agradecimento, planos para férias divertidas ou um roteiro para dar início a uma redação. No entanto, em outras situações, os resultados não são tão bons, como no caso em que um LLM fabricou processos judiciais, e o advogado que usou esses resultados em um tribunal acabou sendo multado. Em outra situação, um médico demonstrou que um sistema de IA generativa apresentava diagnósticos inadequados ao analisar sintomas de pacientes atendidos no pronto-socorro. Com o tempo, acredito que esses sistemas ficarão muito melhores e se tornarão mais confiáveis em uma variedade de contextos. Uma possibilidade interessante é que a demanda por melhores fontes melhorará o acesso a pesquisas e livros on-line. Mas será preciso tempo para chegar lá e, provavelmente, uma pressão significativa por parte dos órgãos reguladores e do público para que haja melhorias que beneficiem todas as pessoas.
- Os LLMs não podem contar com informações que não foram usadas em seu treinamento para responder aos prompts. Isso significa que todos os livros do mundo que não estão disponíveis na íntegra on-line, conteúdos de pesquisas anteriores ao advento da internet e informações em outros idiomas que não o inglês não fazem parte daquilo que um LLM típico “sabe”. Consequentemente, os conjuntos de dados usados para treinar LLMs atualmente podem ampliar as desigualdades e os vieses existentes em muitas áreas – como nas contratações, na medicina e em sentenças criminais. Talvez um dia isso mude, mas estamos muito longe de poder acessar livremente e treinar LLMs em todos os diferentes tipos de informações que as pessoas em todos os idiomas usam atualmente para criar conteúdo para a Wikipédia. E, mesmo então, será necessário mais trabalho para mitigar os vieses.
- Por fim, já foi demonstrado que LLMs treinados a partir dos resultados de LLMs têm um desempenho comprovadamente pior, e chegam até mesmo a esquecer de coisas que eles já “sabiam”, uma condição chamada de “colapso do modelo”. Isso significa que, para que os LLMs tenham bons resultados e continuem melhorando, eles precisarão de um abastecimento constante de conteúdos originais, escritos por humanos, o que torna a Wikipédia e outras fontes de conteúdos gerados por humanos ainda mais valiosas. Também significa que as empresas de IA generativa de todo o mundo precisam descobrir como manter as fontes de conteúdos humanos originais, o elemento mais importante do nosso ecossistema de informações, sustentável e crescendo com o tempo.
Esses são apenas alguns dos problemas que precisam ser resolvidos enquanto internautas exploram como os LLMs podem ser usados. Acreditamos que internautas darão cada vez mais valor a fontes confiáveis de informações que tenham sido validadas por pessoas. As políticas da Wikipédia e nossa experiência de mais de uma década no uso do aprendizado de máquina para apoiar voluntários humanos oferecem lições valiosas sobre esse futuro.
Princípios para uso da IA generativa
O conteúdo gerado por máquina e as ferramentas de aprendizado de máquina não são novidade na Wikipédia e nos demais projetos da Wikimedia. Na Wikimedia Foundation, desenvolvemos ferramentas de aprendizado de máquina e IA com base nos mesmos princípios que tornaram a Wikipédia um recurso tão útil para tantas pessoas: dando centralidade à moderação de conteúdo e à governança humana. Continuamos a experimentar novas maneiras de atender às necessidades das pessoas por conhecimento de forma responsável, inclusive com plataformas de IA generativa, com o objetivo de colocar a contribuição humana e a reciprocidade em primeiro plano. As pessoas editoras da Wikipédia têm controle sobre todo o conteúdo gerado por máquina – elas editam, aprimoram e auditam qualquer trabalho feito por IA – e criam políticas e estruturas para controlar as ferramentas de aprendizado de máquina usadas para gerar conteúdo para a Wikipédia.
Esses princípios podem ser um bom ponto de partida para o uso dos LLMs atuais e em desenvolvimento. Para começar, os LLMs devem considerar como seus modelos auxiliam as pessoas de três maneiras principais:
- Sustentabilidade. A tecnologia de IA generativa tem o potencial de afetar negativamente a motivação humana para criar conteúdo. Para preservar e incentivar mais pessoas a contribuir com seu conhecimento para o bem comum, os LLMs devem procurar aumentar e apoiar a participação humana no cultivo e na criação de conhecimento. Eles não devem jamais impedir ou substituir a criação humana de conhecimento. Isso pode ser alcançado mantendo sempre os humanos no processo e dando o devido crédito às suas contribuições. Continuar a apoiar os seres humanos no compartilhamento de seus conhecimentos não só é algo que está alinhado à missão estratégica do movimento Wikimedia, como também será necessário para continuar a expandir nosso ecossistema geral de informações, que é o que cria os dados de treinamento atualizados dos quais os LLMs dependem.
- Equidade. Na melhor das hipóteses, os LLMs podem ampliar o acesso às informações e oferecer formas inovadoras de fornecer informações a quem busca conhecimento. Para isso, essas plataformas precisam incorporar verificações e contrapesos que não reproduzam os vieses de informação, não ampliem as lacunas de conhecimento, não perpetuem o apagamento de histórias e perspectivas tradicionalmente excluídas nem contribuam com danos aos direitos humanos. Os LLMs também devem considerar como identificar, tratar e corrigir vieses nos dados de treinamento que podem produzir resultados imprecisos e extremamente injustos.
- Transparência. Os LLMs e suas interfaces devem permitir que os humanos entendam a origem dos resultados do modelo, verifiquem e corrijam esses resultados. Uma maior transparência na forma como os resultados são gerados pode nos ajudar a entender e, então, mitigar vieses sistêmicos nocivos. Ao permitir que os usuários desses sistemas avaliem as causas e as consequências dos vieses que podem estar presentes nos dados de treinamento ou nos resultados, pessoas criadoras e usuárias poderão contribuir para uma maior compreensão e a aplicação criteriosa dessas ferramentas.
Visão para um futuro confiável
A contribuição humana é parte essencial da internet. As pessoas são o motor que impulsionou o crescimento e a expansão da web, criando um espaço incrível para o aprendizado, os negócios e a conexão com outras pessoas.
A IA generativa pode substituir a Wikipédia? Ela pode tentar, mas essa é uma substituição que ninguém realmente deseja. Não há nada de inevitável nas novas tecnologias. Em vez disso, cabe a todos nós escolher o que é mais importante. Podemos priorizar a compreensão humana e sua contribuição com o conhecimento no mundo – de forma sustentável, equitativa e transparente – como um dos principais objetivos dos sistemas de IA generativa, e não como algo secundário. Isso ajudaria a mitigar o aumento da desinformação e das alucinações dos LLMs; garantiria que a criatividade humana fosse reconhecida pelo conhecimento criado; e, o mais importante, assegurará que os LLMs e as pessoas possam continuar a contar com um ecossistema de informações atualizado, em evolução e confiável a longo prazo.
Selena Deckelmann é Diretora de Produtos e Tecnologia na Wikimedia Foundation.