Instituições de ensino superior portuguesas, como o ISCTE - Instituto Universitário de Lisboa e a NOVA School of Business and Economics (NOVA SBE), estão substituindo trabalhos escritos por apresentações orais e debatendo regulamentos internos para lidar com o uso crescente de ferramentas de inteligência artificial generativa, como o ChatGPT. Essa mudança responde aos desafios impostos pela capacidade dessas tecnologias de produzir textos coerentes e bem estruturados, o que compromete métodos tradicionais de avaliação baseados em redações e relatórios.
O fenômeno ganhou força desde o lançamento público do ChatGPT pela OpenAI, em novembro de 2022, que democratizou o acesso a modelos de linguagem capazes de gerar conteúdo acadêmico em segundos. Em Portugal, educadores relatam um aumento significativo no uso dessas ferramentas por alunos, levando as universidades a buscar alternativas que priorizem habilidades como raciocínio crítico, comunicação oral e compreensão conceitual, em vez de mera reprodução de informações.
Essa adaptação não é isolada. Ao redor do mundo, instituições educacionais enfrentam dilemas semelhantes, equilibrando a proibição com a integração responsável da IA. Para profissionais de tecnologia e educadores brasileiros, o caso português oferece lições valiosas, especialmente em um contexto onde universidades como USP e Unicamp também debatem diretrizes semelhantes.
No ISCTE, professores têm optado por avaliações orais individuais ou em grupo, onde os alunos defendem ideias perante a turma, permitindo aos docentes observar o processo de pensamento em tempo real. Essa abordagem dificulta o uso direto de IA, pois exige improvisação e respostas a perguntas imprevistas. Da mesma forma, a NOVA SBE, conhecida por sua ênfase em negócios e economia, incorporou apresentações e debates simulados em disciplinas afetadas, como redação executiva e análise de casos.
Além das mudanças práticas, há um esforço para formalizar políticas. O ISCTE discute um regulamento que obrigue a declaração de uso de IA em trabalhos, similar a citações bibliográficas, promovendo transparência. Já a NOVA SBE explora treinamentos para alunos sobre ética na IA, ensinando como usar ferramentas generativas como auxiliares, não substitutos, no aprendizado.
Essas iniciativas refletem uma tendência global observada desde 2023. Nos Estados Unidos, universidades como Stanford e Harvard publicaram guidelines que incentivam o uso pedagógico da IA, enquanto proíbem plágio gerado por máquinas. Detectores de IA, como o GPTZero, surgiram como contramedidas, mas sua precisão varia entre 60% e 90%, dependendo do texto, o que limita sua confiabilidade.
Em Portugal, o contexto é agravado pela rápida adoção da IA em setores profissionais, como consultoria e jornalismo, onde ferramentas como ChatGPT já auxiliam na produção de relatórios e artigos. Fechar a porta à tecnologia seria contraprodutivo, preparando mal os alunos para o mercado de trabalho, argumentam reitores e docentes.
Virando o olhar para o Brasil, o cenário é paralelo. A USP criou o Centro de Inteligência Artificial (C4AI), apoiado pela FAPESP e IBM, onde experimenta prompts no ChatGPT para análises de sentimento em redes sociais, integrando IA ao currículo. A UFMG, por meio de uma comissão coordenada pelo cientista Virgílio Almeida, propôs princípios de transparência, centralidade humana e privacidade para o uso de IA, apresentados em maio de 2024.
Outras instituições brasileiras, como Unicamp e FGV, adotam posturas variadas: algumas restringem IA em provas de humanas e direito, enquanto outras, em exatas, a veem como ferramenta essencial. Um manifesto de professores apelou por proibições, mas deans como o da NOVA SBE consideram isso irrealista, ecoando debates locais.
Os impactos práticos vão além da sala de aula. Para empresas de tecnologia, formar profissionais familiarizados com IA é crucial; avaliações tradicionais não testam competências como engenharia de prompts – a arte de formular instruções precisas para modelos generativos. No Brasil, onde o mercado de IA cresce 30% ao ano segundo estimativas do BNDES, universidades que se adaptam ganham vantagem competitiva.
Comparativamente, concorrentes europeus como a Universidade de Amsterdã usam portfólios de aprendizado contínuo, avaliando progresso ao longo do semestre. Em Portugal, essa inspiração é evidente nos planos de longo prazo do ISCTE para híbridos de avaliações.
Outro aspecto técnico envolve os limites da IA atual. Modelos como GPT-4o, lançado em 2024, excel em factualidade superficial, mas falham em raciocínio profundo ou contextos culturais específicos, como nuances da língua portuguesa europeia versus brasileira. Educadores exploram isso em exercícios onde alunos corrigem outputs de IA.
No desenvolvimento de currículos, há foco em literacia digital: cursos sobre vieses em IA, privacidade de dados e impactos éticos. A NOVA SBE, por exemplo, planeja módulos obrigatórios, preparando executivos para dilemas reais em negócios.
Para o mercado brasileiro, a relevância é imediata. Com o Marco Legal da IA em discussão no Congresso, universidades podem liderar a formação ética. Profissionais de TI precisam de skills que IA não replica, como criatividade interdisciplinar.
Em síntese, as universidades portuguesas exemplificam uma transição madura: da resistência à integração estratégica da IA na educação. ISCTE e NOVA SBE lideram com avaliações orais e regulamentos transparentes, preservando o rigor acadêmico.
A tendência aponta para avaliações mais dinâmicas, com IA como co-piloto no aprendizado. No Brasil, espera-se aceleração em 2025, com mais centros de IA e políticas nacionais.
Para leitores do ConexãoTC, isso reforça a necessidade de acompanhar evoluções: educadores e tech workers devem abraçar a mudança, usando IA para elevar, não substituir, o potencial humano.