Quando se discute inteligência artificial, geralmente os aspectos mais abordados são o “como usar” e “quais aplicativos são melhores”. Contudo, há um debate urgente que não pode ser ignorado: as implicações éticas desse uso.
Para quem está na sala de aula, a ética é anterior à tecnologia e a preocupação com essa dimensão vem antes mesmo de qualquer aplicativo. No entanto, diferente de qualquer outra onda tecnológica, a IA traz consigo novos desafios e possibilidades que necessitam reflexão.
Rafael Ferreira Mello, pesquisador sênior no CESAR e professor associado na UFRPE (Universidade Federal Rural de Pernambuco), argumenta que ao menos três dimensões merecem uma atenção mais detalhada: dados, algoritmos e aplicação de sistemas de IA.
Para ele, cada um desses aspectos se desdobra em novos pontos de atenção.
Muitas ferramentas que possuem inteligência artificial e que estão sendo aplicadas nas escolas e universidades armazenam uma quantidade significativa de dados de quem as usa, sejam estudantes ou docentes.
Quais informações as escolas estão armazenando e, dentre elas, quais deveriam ser usadas ou não? Rafael explica que é preciso entender como as escolas fazem uso de dados dos educadores. “Estamos sempre pensando no aluno, mas às vezes pode ser que uma instituição esteja monitorando algum dado do professor que não é conveniente”, afirma.
Este uso indevido dos dados já chama a atenção desde antes do crescimento da IA na educação. O relatório Educação em um cenário de plataformização e de economia de dados, publicado Comitê Gestor da Internet no Brasil em 2022, já apontava riscos e posturas a serem adotadas pela gestão escolar no momento de implantar plataformas em suas redes.
Muitas empresas apresentam suas soluções como sendo gratuitas e, no entanto, coletam metadados e informações sensíveis dos usuários sem que eles tenham pleno conhecimento disso.
Apesar desse alerta, Rafael acredita que alguns dados coletados podem ser úteis em um uso interno para pensar estratégias de ensino e entender de que maneira o aluno está ou não aprendendo. “Mas é preciso se perguntar qual o propósito, quem vai ter acesso aos dados e se todo mundo envolvido está de acordo com a utilização”, reforça.
A internet e, por consequência, as soluções de inteligência artificial, estão preenchidas de algoritmos que podem comprometer o uso ético de algumas ferramentas. O pesquisador do CESAR levanta uma outra questão relacionada aos algoritmos: a possibilidade de serem enviesados.
“O professor tem que estar consciente de que esses algoritmos não dão 100% de acerto e que aquela resposta é uma indicação que ele pode usar para melhorar alguma coisa, mas se ele ficar usando 100% daquilo sem ter a parte do raciocinar e discernir, pode ser que cometa algum ato não legal”, acrescenta. A depender das bases de dados que alimentam as plataformas de IA, esses algoritmos podem reproduzir preconceitos, racismo e até mesmo violações de direitos humanos. Ao destacar a importância de um uso reflexivo, observando a dimensão ética, é imprescindível pensar nisso.
A urgência em discutir de forma ética os usos de inteligência artificial está muito conectada com o comportamento dos algoritmos, assim como a coleta de dados citada pelo professor Rafael. Ferramentas de IA trazem consigo novas demandas, entre elas jurídicas.
“Existem leis que estão surgindo, principalmente no Brasil, que exigem antes da colocação de qualquer sistema de inteligência artificial no mercado, que seja feita uma avaliação preliminar para determinar qual o risco que esse sistema impõe para quem vai utilizá-lo”, afirma Ingrid Soares, advogada e especialista em IA pela Harvard Kennedy School (Estados Unidos).
Essas mudanças na legislação contribuem, do ponto de vista da advogada, para que as discussões éticas sejam mais qualificadas e investiguem se essas ferramentas estão centradas no lado humano.
Em julho deste ano, o Brasil apresentou a sua proposta para o Plano Brasileiro de Inteligência Artificial 2024-2028, que também elencou questões relacionadas à educação, entre elas a criação de laboratórios interdisciplinares de formação de educadores e a inclusão do tema na graduação. Saiba mais aqui.
Ainda sobre as leis vigentes, Ingrid recorda que o Brasil está se espelhando em outras legislações já existentes, como uma recente legislação aprovada pela Europa que traz uma série de regras para o uso de IA, inclusive na educação.
“Além disso, hoje em dia as ferramentas são muito mais democráticas. Antes para usar um sistema de inteligência artificial precisava ter conhecimento computacional ou saber programar, mas agora temos o ChatGPT no celular ou computador a um clique de distância”, aponta a especialista.
Essa nova relação de facilidade de acesso para alguns é o que torna a discussão sobre ética ainda mais necessária, porque estudantes de diferentes idades e etapas de ensino podem fazer um uso que, sem o conhecimento adequado, pode expô-los aos vieses apresentados acima.
André Neves, professor titular da UFPE (Universidade Federal de Pernambuco), acredita que discutir ética e inteligência artificial no contexto educacional é uma forma de prevenir problemas que ocorrem nas redes sociais.
“A gente entregou para os meninos aprenderem sozinhos a usar rede social, porque ela foi proibida nas escolas. Professor nenhum discutiu com os alunos o que estava acontecendo. O saldo disso é ter um monte de gente que acha que a Terra é plana. Veja, isso é um pouco culpa nossa, porque a gente não trouxe para sala de aula o debate sobre os impactos da rede social na formação de crença”, ressalta o professor. “Achar que os discentes aprendem sozinhos é uma irresponsabilidade do tamanho da que foi com as redes sociais, a gente achou que os meninos sabiam usar e não sabem”, complementou.
Para o docente, este é o momento ideal de ensinar os estudantes a utilizarem eticamente essas ferramentas, para que tenham um uso saudável dessas plataformas. Quando se trata de debater essa utilização, André avalia que é fundamental investir em formação tanto de alunos, quanto de professores.
“Inteligência artificial muda muito a maneira como a gente faz aula ou como preparamos material. A gente tem que se adaptar”, afirma.
O professor compara o momento com a chegada da imprensa de Johannes Gutemberg (1400-1468), explicando que antes disso pouquíssimas pessoas sabiam ler e foi necessário tempo e preparo.
“Ler um livro se eu não sou alfabetizado é muito difícil, quase impossível, mas conversar com IA sem ter letramento é fácil. Porque parece que é simples, mas por baixo é muito mais complexo do que o livro. As pessoas pensam que sabem, e aí geram um monte de risco. Ela vai lá e pergunta uma coisa genérica, pega a resposta genérica e trata como verdade”, comenta.
Ambos os pesquisadores do Recife alertaram para um outro aspecto desafiador do ponto de vista ético: plágio e autoria.
Embora pareçam ser assuntos recentes no cotidiano escolar, essa preocupação também é anterior ao ChatGPT e às demais IAs generativas. Os alunos já copiavam trabalhos antes da existência da internet.
“Estamos falando dessa cópia feita com IA, mas a gente poderia estar falando em uma cópia de um colega do lado ou da internet. Já existem muitos estudos na área da computação para identificar se um texto de um aluno é realmente dele ou se ele copiou de outras fontes”, destaca Rafael.
Ele avalia, contudo, que é natural existir certo receio porque as ferramentas de inteligência artificial trazem novas possibilidades, mas nada que não possa ser completamente identificável.
“Quando eu estava lá na escola, o medo dos professores era que a gente copiasse da Wikipédia, porque era o que tinha na época. Atualmente temos o ChatGPT que é mais avançado. Hoje quem é que fala para não copiar da Wikipédia? Ninguém fala mais isso, porque já é uma coisa consolidada. Daqui a 5 anos não vai existir essa preocupação, as coisas vão se adaptar“, diz o docente.
André avalia que, apesar de a preocupação ser legítima, esse é um problema de conhecimento das ferramentas. “Os humanos são muito bons em plagiar os outros, é impressionante a quantidade de plágio que se encontra”, comenta.
Por trabalharem com grandes bancos de dados, as ferramentas de IA geralmente não conseguem reproduzir com exatidão algo já construído e, para gerar um novo conteúdo, mesclam informações de diferentes fontes, apresentando algo novo e não necessariamente uma cópia de algo existente.
“Acho que é um problema muito mais nosso do que dela”, finaliza o pesquisador.
As preocupações éticas levantadas pelo uso da IA na educação incluem: Diversidade e viés: Os sistemas de IA são treinados com dados que muitas vezes são enviesados, o que pode fazer com que esses sistemas perpetuem e amplifiquem esses vieses em suas próprias respostas. Isso pode ter um impacto negativo sobre estudantes de grupos marginalizados, que podem estar sub-representados nos dados usados para treinar os sistemas de IA.
Plágio: Sistemas de IA podem ser usados para gerar textos, imagens e outros conteúdos que podem ser confundidos com trabalho original. Isso pode levar os estudantes a plagiarem conteúdos gerados por IA sem perceber.
Autoria: Pode ser difícil determinar quem é o autor do conteúdo gerado por IA. Isso pode causar confusão e disputas sobre quem possui os direitos autorais do trabalho criado pela IA.
Transparência: Sistemas de IA muitas vezes são caixas-pretas, o que dificulta a compreensão de como funcionam e a identificação e correção de quaisquer vieses ou erros em seus resultados. Essa falta de transparência pode dificultar a confiança nos sistemas de IA e o uso responsável dos mesmos.
Saiba mais em: https://porvir.org/inteligencia-artificial-educacao-etica-e-inovacao/