A chegada da inteligência artificial ao cotidiano escolar deixou de ser uma hipótese distante e passou a exigir respostas concretas dos sistemas de ensino. A mudança já aparece em escala internacional. Na próxima edição do Programme for International Student Assessment, exame global de avaliação de desempenho dos estudantes, em 2029, será incluída a disciplina de letramento midiático e em inteligência artificial, sinal claro de que a tecnologia entrou de vez na agenda educacional.
No Brasil, esse processo também avançou. Uma resolução de 2025 do Conselho Nacional de Educação tornou obrigatória, a partir deste ano, a educação digital e midiática. Na segunda-feira 11, o CNE deu novo passo ao aprovar um parecer prévio com diretrizes para o uso de IA no ensino básico e no ensino superior. O texto ainda será submetido a consulta pública.

O mérito do parecer está, antes de tudo, em reconhecer que nem todo uso de inteligência artificial na educação tem o mesmo peso nem oferece o mesmo grau de risco. A distinção é indispensável. Quanto mais a tecnologia se aproxima de funções como avaliar, vigiar ou interferir no destino acadêmico do estudante, maior deve ser o cuidado.
Na faixa de baixo risco, a IA aparece como ferramenta de apoio administrativo e pedagógico. Enquadram-se nesse grupo atividades como organização de materiais, recursos de acessibilidade, revisão de textos sem atribuição de nota e apoio ao planejamento de aulas.
O risco moderado surge quando a tecnologia passa a interagir diretamente com os estudantes, mas sem tomar decisões automáticas relevantes. É o caso de tutores virtuais, sistemas de feedback formativo e ferramentas de apoio à escrita.
A classificação de alto risco envolve situações em que o uso da IA pode afetar notas, aprovação ou direitos dos alunos. Entram nesse campo a correção automática de provas, o monitoramento biométrico e a formação de perfis de estudantes com base em comportamento, desempenho e frequência.
Há ainda o nível de risco excessivo, o único expressamente proibido. Nele se incluem decisões automáticas sobre aprovação ou expulsão, perfilização de alunos para fins punitivos e vigilância emocional.
Os demais níveis permanecem permitidos, mas condicionados a salvaguardas. O parecer exige transparência, proteção da informação, limitação no uso de dados, revisão humana, avaliação de impacto, direito de contestação e acompanhamento permanente. São exigências razoáveis para impedir que a escola transforme uma ferramenta útil em mecanismo opaco de controle ou punição.
O texto também prevê a inclusão da inteligência artificial no currículo, para que os estudantes compreendam como essas ferramentas funcionam e sejam capazes de analisá-las criticamente, identificando limites, fragilidades e riscos.
Outro ponto relevante é a preocupação com as desigualdades entre redes de ensino. O parecer aponta a necessidade de ampliar a inclusão digital, respeitar especificidades locais e organizar a implementação em regime de cooperação federativa.
O desafio não é pequeno. Segundo a TIC Educação de 2025, pesquisa do Comitê Gestor da Internet no Brasil, apenas 54% dos professores receberam formação sobre ferramentas digitais. A capacitação docente, portanto, ainda precisa avançar muito para que a incorporação da tecnologia não aprofunde distâncias já existentes.
No conjunto, o parecer é positivo. Ele reconhece o potencial da inteligência artificial para a educação, mas estabelece limites necessários para proteger a integridade do ensino e os direitos dos estudantes.