A ascensão da inteligência artificial está a remodelar a forma como os jovens procuram apoio, com um número crescente a recorrer a chatbots para ligação emocional. Embora esta tendência apresente desafios, também destaca a necessidade urgente de redefinir o papel dos conselheiros escolares – não para competir com a IA, mas para aproveitá-la de forma responsável e garantir que os alunos recebam cuidados abrangentes e centrados no ser humano.
A mudança para o companheirismo digital
Dados recentes revelam uma mudança significativa na forma como os indivíduos, especialmente os adolescentes, lidam com a solidão e o sofrimento emocional. Surpreendentes 72% dos adolescentes agora buscam consolo em modelos de linguagem ampla, chatbots e companheiros de IA. Esta não é apenas uma curiosidade tecnológica; reflete uma necessidade mais profunda de apoio acessível e sem julgamentos, algo que a IA parece estar numa posição única para fornecer. Os dados internos da OpenAI confirmam ainda que as conversas com a IA muitas vezes se aprofundam em tópicos profundamente pessoais, incluindo psicose, ideação suicida e dependência emocional pouco saudável.
Estas conversas não são apenas números num relatório; eles representam lutas reais acontecendo em grande escala. O facto de mais de 700 milhões de pessoas interagirem semanalmente com plataformas como o ChatGPT significa que mesmo pequenas percentagens se traduzem em mais de um milhão de indivíduos que procuram apoio da IA todas as semanas. Isto sublinha a importância de compreender por que os jovens recorrem a estas ferramentas – o anonimato, a disponibilidade e uma aparente falta de julgamento contribuem para o seu apelo.
O papel do conselheiro em um futuro híbrido
Historicamente, os conselheiros escolares têm sido sobrecarregados, muitas vezes sobrecarregados com tarefas administrativas em vez de apoio direto aos alunos. A proporção média nacional de alunos por conselheiro permanece em preocupantes 376:1, excedendo em muito os 250:1 recomendados pela American School Counselor Association. Muitos estados, como a Califórnia, enfrentam proporções ainda piores, com conselheiros atendendo quase 500 alunos cada.
Dadas estas restrições, as ferramentas de IA podem ser um complemento valioso. Plataformas como SchoolAI, Wysa e MagicSchool já estão sendo utilizadas para suporte aos alunos, monitoramento de bem-estar e até automação administrativa. No entanto, a chave não é substituir os conselheiros pela IA; é equipá-los com recursos e treinamento para integrar essas tecnologias de forma eficaz.
Russell Sabella, ex-conselheiro escolar e especialista em tecnologia educacional, enfatiza que uma verdadeira parceria entre humanos e IA é essencial. “Podemos construir grades de proteção e sistemas de monitoramento, mas as crianças sempre encontram um jeito”, explica ele. “Não podemos confiar apenas na tecnologia; será necessária uma verdadeira parceria entre humanos e IA.”
Os três pilares da integração responsável
Para navegar neste cenário em mudança, as escolas devem concentrar-se em três áreas críticas:
- Alfabetização em IA: os alunos precisam entender como essas ferramentas funcionam, suas limitações e os riscos potenciais de dependência excessiva. Não se trata apenas de habilidades técnicas; trata-se de promover o pensamento crítico e a cidadania digital responsável.
- Conformidade Comportamental: A OpenAI sugere que as respostas da IA devem espelhar os padrões de intervenção em crises – empatia, fornecimento de recursos e evitar conselhos prejudiciais. As escolas devem esperar a mesma funcionalidade de qualquer ferramenta de IA que adotem. Isso inclui transparência no uso de dados e diretrizes claras para as interações dos alunos.
- Colaboração Humano-IA: O objetivo não é banir a IA, mas construir um sistema onde os conselheiros possam aproveitá-la de forma eficaz. Isto requer a adaptação das estruturas existentes (como a taxonomia de saúde mental da OpenAI ou as diretrizes da Common Sense Media) e a criação de uma cultura “nós identificamos, nós compartilhamos”, onde professores e alunos relatam sobre interações de IA.
Uma abordagem em fases para implementação
Sabella propõe um sistema de apoio multinível, semelhante à Resposta à Intervenção (RTI). O nível 1 envolveria treinamento universal em alfabetização em IA para todos os alunos. O Nível 2 forneceria suporte extra para aqueles que lutam contra a dependência emocional ou interações prejudiciais com a IA. O nível 3 exigiria uma abordagem colaborativa envolvendo professores, administradores e pessoal de apoio para alunos com preocupações graves.
O segredo é envolver os alunos no processo. Como salienta Sabella, os adultos atrapalharam-se na resposta ao impacto das redes sociais na saúde mental. Aprender com os erros do passado significa envolver ativamente os jovens no desenvolvimento de barreiras de proteção e sistemas de monitorização.
O futuro não é uma escolha entre conselheiros humanos ou chatbots. Trata-se de construir relações que combinem ambos, pautadas na empatia, pautadas pela ética e centradas no cuidado.
Em última análise, o objetivo não é filtrar ou banir a IA, mas preparar sistemas de aconselhamento, políticas e os próprios estudantes para uma colaboração significativa entre humanos e IA. Isto requer uma mudança de mentalidade: deixar de ver a IA como uma ameaça para reconhecer o seu potencial como uma ferramenta para melhorar o bem-estar dos alunos quando utilizada de forma responsável.
