Este recurso de aprendizagem tem como objetivo fornecer aos professores estratégias claras e práticas para promover um uso responsável e ético da Inteligência Artificial (IA) em sala de aula, potenciando a aprendizagem dos alunos. Serão abordados desafios éticos e pedagógicos e as respectivas estratégias de mitigação, incluindo regras, acordos, orientações e processos educativos.

Desafio 1: Fiabilidade e precisão da informação

<aside> 📌

Risco: A IA pode gerar informações incorretas ou imprecisas.

</aside>

<aside> 💡

Estratégias sugeridas:

<aside> 🌍

Exemplo real:

A NOVA Information Management School (NOVA IMS) da Universidade Nova de Lisboa integrou ferramentas de IA generativa na prática académica, em parceria com a Microsoft. Esta iniciativa permitiu alavancar a aprendizagem dos alunos e abriu novas possibilidades para os professores inovarem na pedagogia. A escola promoveu uma abordagem pedagógica com boas práticas, incluindo formação para professores e alunos sobre como tirar partido da tecnologia, enfatizando a importância da validação crítica das informações geradas pela IA.

A União Europeia lançou diretrizes éticas para o uso da inteligência artificial, enfatizando que os sistemas de IA devem ser "robustos" e "seguros", de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências. Essas diretrizes incentivam um uso equilibrado da IA, promovendo a consciência sobre as suas limitações e evitando uma dependência excessiva.

</aside>

Desafio 2: Plágio e desrespeito à propriedade intelectual

<aside> 📌

Risco: Uso da IA para gerar trabalhos sem esforço próprio pode levar ao plágio.

</aside>

<aside> 💡

Estratégias sugeridas:

<aside> 🌍

Exemplo real:

O Instituto Superior Técnico (IST) de Lisboa apresentou uma deliberação sobre o uso de ferramentas de IA, como o ChatGPT, no ensino. A escola não proibiu o recurso a estas ferramentas, encorajando estudantes e professores a usá-las como assistentes para a aprendizagem e ensino. No entanto, enfatizou a importância de manter a integridade académica, orientando os alunos sobre o uso ético da IA e a necessidade de atribuição correta das fontes.

Na escola São Francisco Xavier, em São Paulo, Brasil, os professores desafiam os alunos a utilizarem o ChatGPT e outras ferramentas de IA para responder a perguntas, incentivando-os a verificar a correção e completude das respostas, promovendo a criticidade e o respeito à propriedade intelectual.

</aside>

Desafio 3: Confiança excessiva na IA e perda da capacidade crítica

<aside> 📌

Risco: Alunos podem aceitar respostas da IA sem questionar a veracidade.

</aside>

<aside> 💡

Estratégias sugeridas:

<aside> 🌍

Exemplo real:

A Comissão Europeia publicou as "Orientações éticas para educadores sobre a utilização da IA e de dados no ensino e na aprendizagem", que visam ajudar os educadores a compreender o potencial das aplicações de IA e alertar para os possíveis riscos. Estas orientações incentivam os professores a promoverem uma análise crítica das informações fornecidas pela IA, desenvolvendo a capacidade dos alunos de questionar e avaliar os dados de forma independente.

Em Porto Alegre, no Brasil, alunos do sistema municipal participam na "Sala da Inovação", onde exploram o ChatGPT e jogos como Minecraft e Roblox, aprendendo a pesquisar e elaborar perguntas eficientes, desenvolvendo o pensamento crítico e a capacidade de questionar as respostas fornecidas pela IA.

</aside>

Desafio 4: Privacidade e proteção de dados

<aside> 📌

Risco: Sistemas de IA podem recolher dados dos alunos sem segurança adequada.

</aside>