Além dos Algoritmos: Por Que a Justiça em IA na Educação Exige um Olhar Social Profundo

8 de março de 2026 Carlos Ricardo Bifi

A inteligência artificial (IA) promete revolucionar a educação, personalizando o aprendizado, otimizando avaliações e democratizando o acesso ao conhecimento. Contudo, essa promessa vem acompanhada de um desafio ético fundamental: como garantir que a IA seja justa e equitativa para todos os estudantes? 

A resposta a essa pergunta não é simples e, como veremos, exige uma abordagem que transcende a mera correção algorítmica.Neste artigo, exploraremos a tensão entre duas perspectivas relevantes sobre a justiça em IA na educação: a abordagem técnica, focada na detecção e mitigação de viés algorítmico, e a Dimensão Social do Letramento em IA (LIA), que propõe um olhar mais amplo sobre os impactos sociais e a responsabilidade coletiva.

A Precisão Necessária: O Que a Abordagem Técnica Faz Bem

O artigo “Fairness-Aware AI in Education: Identifying and Mitigating Bias in Student Assessment Systems”, apresentado na 2025 10th International Conference on Information Technology Trends (ITT) e publicado pela IEEE, exemplifica o rigor da abordagem técnica. Ele demonstra a capacidade de identificar e quantificar vieses específicos em sistemas de avaliação de estudantes baseados em IA, utilizando dados de estudantes de educação superior da Higher Colleges of Technology em Sharjah, Emirados Árabes Unidos, extraídos do Open University Learning Analytics Dataset (OULAD).

Por meio de métricas como a Diferença de Paridade Demográfica, a Razão de Impacto Desproporcional e a Equalized Odds, os pesquisadores conseguem diagnosticar onde o algoritmo falha em tratar grupos de forma equitativa. No estudo, por exemplo, foi revelado que o modelo de IA baseline (Random Forest) apresentava um viés sistemático contra alunos sem qualificações prévias e estudantes de baixo status socioeconômico.

As estratégias de mitigação, como o Reweighing (pré-processamento) e o Thresholding (pós-processamento), oferecem ferramentas concretas para ajustar o comportamento do algoritmo. Essa capacidade de quantificar o problema e propor soluções algorítmicas é inegavelmente valiosa. Ela nos permite ver, com dados, que a IA não é neutra e que seus vieses podem perpetuar ou até amplificar desigualdades existentes.

As Limitações da Lente Puramente Técnica: Onde o Algoritmo Não Chega

Apesar de sua importância, a abordagem puramente técnica possui limitações significativas. O próprio artigo técnico aponta para um trade-off crítico entre acurácia e justiça. Ao aplicar o Thresholding para reduzir as disparidades, o recall do modelo diminuiu, indicando que a busca por maior equidade estatística pode, por vezes, comprometer a capacidade do sistema de identificar corretamente todos os casos positivos.

Essa é a ponta do iceberg. As soluções algorítmicas, por mais sofisticadas que sejam, tendem a tratar os sintomas do viés, e não suas causas-raiz. Um algoritmo que desfavorece alunos de baixo status socioeconômico não o faz por “maldade” própria, mas porque foi treinado com dados que refletem e codificam as desigualdades históricas e estruturais da sociedade. No contexto brasileiro, onde as disparidades educacionais são profundas e multifacetadas (acesso à internet, qualidade do ensino público, recursos familiares), um viés algorítmico é um espelho de uma realidade social complexa.

A correção técnica pode “maquiar” o problema, criando uma “fairwashing” – uma ilusão de justiça que não aborda as injustiças subjacentes. Ela não questiona:

  • Por que os dados de entrada já são enviesados?
  • Quem definiu as métricas de sucesso que o algoritmo otimiza?
  • Quais são os impactos não-quantificáveis na vida dos estudantes?

A Dimensão Social do LIA: Um Complemento Indispensável

É aqui que a Dimensão Social do Letramento em IA (LIA), proposta por Bifi 2026, emerge como um complemento indispensável. Esta abordagem transcende a visão técnica para enxergar a IA como um fenômeno sociotécnico, cujos impactos reverberam em toda a sociedade. A Dimensão Social do LIA propõe que a justiça em IA na educação não pode ser alcançada sem:

  1. Compreensão Aprofundada dos Impactos Sociais: Ir além das métricas para entender como a IA afeta a trajetória de vida dos estudantes, suas oportunidades futuras e seu bem-estar psicológico. No Brasil, isso significa analisar como um sistema de IA pode exacerbar a exclusão de estudantes de escolas públicas ou de comunidades rurais.
  2. Participação Democrática e Inclusiva: A definição do que é “justo” não pode ser delegada apenas a engenheiros e cientistas de dados. Estudantes, pais, educadores, formuladores de políticas públicas e comunidades devem ter voz ativa no design, implementação e avaliação de sistemas de IA educacionais.
  3. Equidade e Acesso como Princípios Fundamentais: A IA deve ser uma ferramenta para reduzir, e não ampliar, as desigualdades de acesso à educação de qualidade. Isso implica em políticas que garantam infraestrutura, conectividade e formação para todos, especialmente em regiões carentes.
  4. Transformações Coletivas e Responsabilidade Social: A IA deve ser vista como um catalisador para a mudança social positiva. As instituições de ensino e as empresas de tecnologia têm a responsabilidade ética de garantir que suas soluções de IA contribuam para uma sociedade mais justa e equitativa, e não apenas para a eficiência ou o lucro.

Convergências: Onde os Caminhos se Cruzam

Apesar de suas diferenças, as duas abordagens não são mutuamente exclusivas; elas convergem em pontos estratégicos:

  • Reconhecimento do Problema: Ambas as perspectivas concordam que a IA pode perpetuar e amplificar desigualdades existentes, e que a “justiça” é um objetivo central. O artigo técnico identifica os grupos vulneráveis (alunos de baixo SES), enquanto a Dimensão Social do LIA contextualiza e amplia essa preocupação.
  • Busca por Equidade: Ambas visam a um sistema educacional mais equitativo, embora com definições e métodos distintos para alcançá-lo.
  • Necessidade de Ação: Nenhuma das abordagens defende a inação. Ambas clamam por intervenção para corrigir os rumos da IA na educação.

Divergências e Implicações: A Profundidade da Diferença

As divergências, no entanto, são profundas e carregam implicações significativas:

  • Escopo da Justiça: Para a abordagem técnica, a justiça é predominantemente um problema algorítmico, mensurável por métricas estatísticas. Para a Dimensão Social do LIA, a justiça é um conceito ético, político e social, que abrange direitos humanos, equidade de oportunidades e distribuição de poder.
  • Natureza das Soluções: A abordagem técnica propõe ajustes no código e nos dados. A Dimensão Social do LIA exige mudanças em políticas públicas, currículos, formação de professores, governança de dados e, fundamentalmente, na cultura institucional e social.
  • Responsabilidade: Enquanto a abordagem técnica foca na responsabilidade do desenvolvedor do algoritmo, a Dimensão Social do LIA distribui essa responsabilidade por um ecossistema mais amplo, incluindo governos, instituições de ensino, empresas e a própria sociedade civil.

A implicação mais perigosa de ignorar a Dimensão Social é a “cegueira para o contexto”. Um algoritmo pode ser estatisticamente “justo” em um ambiente controlado, mas falhar miseravelmente em um contexto social complexo como o Brasil, onde a falta de acesso à internet ou a qualidade heterogênea do ensino público podem invalidar qualquer “paridade demográfica” algorítmica.

Proposta de Integração: Rumo a um Framework Híbrido para a Equidade

Para construir uma IA verdadeiramente justa na educação, precisamos de um framework híbrido que combine o rigor técnico com a profundidade da análise social. Propomos um modelo iterativo e colaborativo:

  1. Diagnóstico Técnico Robusto: Iniciar com a análise de viés algorítmico, utilizando as métricas e técnicas de mitigação propostas pela abordagem técnica. Isso nos dá uma base empírica para entender onde e como o algoritmo está falhando. Exemplo: Um sistema de recomendação de cursos universitários no Brasil identifica que alunos de escolas públicas têm menor probabilidade de serem recomendados para cursos de alta demanda, mesmo com notas equivalentes.
  2. Análise Social Profunda (Dimensão Social do LIA): Uma vez identificado o viés, a Dimensão Social do LIA entra em ação para questionar: Por que esse viés existe? É reflexo da qualidade do ensino, da falta de acesso a recursos preparatórios, de preconceitos históricos ou da forma como os dados foram coletados?
  3. Quem é afetado e como isso impacta suas vidas e o tecido social?
  4. Quais valores estamos priorizando ao usar essa IA?
  5. Como podemos envolver os estudantes e educadores afetados na busca por soluções?
  6. Exemplo: A análise social revela que o viés não é apenas algorítmico, mas sistêmico: as escolas públicas carecem de infraestrutura e professores qualificados, e o sistema de avaliação não considera as adversidades enfrentadas por esses alunos.
  7. Design e Redesign Colaborativo: Com base nas análises técnica e social, redesenhar o sistema de IA e as políticas educacionais adjacentes. Isso pode envolver: Ajustes algorítmicos (mitigação de viés).
  8. Mudanças na coleta de dados para incluir variáveis de contexto social.
  9. Criação de programas de apoio para grupos desfavorecidos.
  10. Revisão dos critérios de avaliação para serem mais inclusivos.
  11. Exemplo: O sistema de recomendação é ajustado para dar peso a fatores socioeconômicos e geográficos, e são criados programas de mentoria e bolsas para alunos de escolas públicas, garantindo que a IA seja uma ferramenta de ascensão social, e não de perpetuação de privilégios.
  12. Monitoramento Contínuo e Governança Ética: A justiça em IA não é um estado estático, mas um processo contínuo. É essencial estabelecer mecanismos de monitoramento, auditorias independentes e fóruns de discussão ética para garantir que a IA continue a servir aos objetivos de equidade.

Conclusão: Um Chamado à Ação para a Equidade em IA Educacional

A IA na educação tem o potencial de ser uma força poderosa para o bem, mas apenas se a construirmos sobre os pilares da justiça e da equidade. Ignorar a complexidade social em favor de soluções puramente técnicas é um erro que pode custar caro, perpetuando e aprofundando as desigualdades que a IA deveria ajudar a resolver.

Profissionais da educação, tecnólogos, formuladores de políticas públicas e a sociedade civil: é imperativo que nos engajemos nesse diálogo interdisciplinar. Precisamos de engenheiros que compreendam o impacto social de seus algoritmos e de educadores que saibam questionar a “caixa preta” da IA. Somente através de uma abordagem integrada, que combine o rigor das métricas técnicas com a profundidade da análise social, poderemos construir um futuro educacional onde a IA seja verdadeiramente justa e sirva a todos os estudantes, especialmente os mais vulneráveis.

Qual é o seu papel na construção de uma IA educacional mais justa e equitativa? Compartilhe suas perspectivas nos comentários!

Referências:

Bifi, Carlos Ricardo. “A Dimensão Social do Letramento em IA (LIA): Rumo a uma Educação Mais Justa e Equitativa.” (Referência ao conceito da Dimensão Social do LIA).

“Fairness-Aware AI in Education: Identifying and Mitigating Bias in Student Assessment Systems” 

Carlos Ricardo Bifi
Autor

Carlos Ricardo Bifi

Carlos Ricardo Bifi é Professor Doutor em Educação Matemática, com especialização em Data Science & Analytics. Com mais de 27 anos de experiência em educação, dedica-se à pesquisa sobre letramento em inteligência artificial e competências para o século XXI.

Posts Relacionados