Os resultados de uma pesdquisa indicam que os usuários de IA produzem um conjunto menos diverso de resultados para a mesma tarefa
Por Charles Machado – DF
Você já se perguntou se a IA vai diminuir a sua capacidade de pensar? Assim como não sabemos mais os telefones de amigos e parentes de cor será que vamos pensar menos depois do uso contínuo e permanente da IA em nossas atividades comuns?
Recentemente a Microsoft publicou um estudo no qual entrevistou 319 trabalhadores para investigar como o uso de ferramentas de IA impacta o pensamento crítico e como essa tecnologia afeta seu esforço. Os resultados indicam que os usuários de IA produzem um conjunto menos diverso de resultados para a mesma tarefa.
Isso significa que os trabalhadores que confiam na máquina se esforçam menos para fornecer ideias próprias. Mas, quem delega o trabalho à máquina e por que o fazem?
Os trabalhadores mais críticos em relação à IA são aqueles mais exigentes consigo mesmos. Ou seja, quanto mais confiança uma pessoa tem em si mesma e na tarefa que desempenha, menos recorre à tecnologia.
Veja que a pesquisa foi feita com um corpo de pessoas altamente qualificadas, ou seja, estudantes ou trabalhadores que se destacam por suas altas capacidades e já encontram limitações ao usar a IA.
É sempre bom destacar que no momento em que um trabalho universitário pode ser resolvido sem problemas por uma máquina, o problema não é dos alunos, mas do sistema educacional, pois se o trabalho requer espírito crítico para ser realizado, como confiar em uma IA?
Uma resposta do ChatGPT é uma tela em branco sobre a qual podemos trabalhar. São apenas dados coletados com os quais decidimos o que fazer, mas que por si só não acrescentam nada novo.
Já existe um movimento significativo de estudantes universitários que estão começando a limitar o uso da inteligência artificial para não diminuir sua criatividade, esforço e pensamento crítico.
Nos ambientes de ensino, deve-se ter o lugar de fomento a experimentação a experimentação, o aprendizado e o pensamento crítico, em vez de copiar e colar as perguntas em uma máquina sem nem mesmo lê-las, que é o que vem acontecendo.
IA e seus infinitos recursos
Sabidamente a IA generativa está amplamente difundida no ambiente universitário. Segundo uma pesquisa publicada pelo Jornal El País da Espanha, 89% dos estudantes universitários espanhóis de graduação usam alguma ferramenta para resolver dúvidas (66%), investigar, analisar dados ou coletar informações (48%), ou diretamente redigir trabalhos (45%), de acordo com um estudo recente da Fundação CYD.
44% usam essas ferramentas várias vezes por semana e 35% diariamente, isso para ficarmos apenas em um país da Comunidade Econômica Europeia como referência.
É fundamental entendermos que essas ferramentas representam um desafio para o sistema educacional, pois elas podem ser úteis para aqueles alunos que querem melhorar a qualidade do trabalho e desenvolver habilidades próprias, porém também podem ser prejudiciais para aqueles que não querem se esforçar ou não têm motivação.
Porém penso que seria ingenuidade imaginar que a IA, e os seus infinitos recurso, pode ser comparada a uma calculadora que entrou na rotina estudantil.
Em tempos de automação e uniformidade de resultados, fomentar o pensamento crítico é um desafio e tanto para as instituições de ensino quanto para as empresas de tecnologia, que estão tentando desenvolver ferramentas de IA generativa que incentivem os usuários a pensar por si próprio, bem como a abordar problemas mais complexos e se incorporarem a um mercado de trabalho cada vez mais influenciado pela IA.
Isso é evidenciado pelo estudo mencionado anteriormente da Microsoft e também pelos recentes anúncios das duas empresas líderes em IA, OpenAI e Anthropic.
A OpenAI lançou em maio de 2024 o ChatGPT Edu, uma versão de seu chatbot para estudantes. A Anthropic lançou Claude for Education, uma versão de seu chatbot focada em universidades.
Claude faz perguntas socráticas para orientar os estudantes na resolução de problemas e ajudá-los a desenvolver o pensamento crítico: “Como você abordaria isso?” ou “Que evidência apoia a sua conclusão?”.
Menos criatividade, menos esforço e menos pensamento crítico são limitações ao conhecimento que já ouvimos com a chegada do Google. Quais são as diferenças entre usar o buscador e a IA generativa para fazer um trabalho?
Inúmeras, lhe adianto, pois nos buscadores, você insere a pergunta, consulta diferentes páginas e estrutura suas respostas acrescentando e descartando o que considera apropriado.
Porém como você já deve ter percebido, desde de que o Google integrou a IA através das Overviews, que são essas respostas geradas automaticamente que aparecem na parte superior da página em alguns resultados.
Ela usa o Ecosia, que se promove como uma alternativa sustentável ao Google, pois utiliza a receita de publicidade gerada pelas buscas para financiar a reflorestação. Todas as estudantes entrevistadas para este artigo expressaram preocupação com o consumo de água associado a cada busca feita com uma ferramenta de IA.
Porém fique atento, pois uma das maiores limitações que encontramos no ChatGPT é que não sabe dizer ‘não’. Se não conhece uma resposta, inventa. Isso pode ser muito perigoso, logo muita cautela no seu uso.
s mudanças profundas na economia e nas relações sociais exigem reflexões sem pressa, e principalmente sem a capa ideológica que por muitas vezes turva o conhecer com as tintas do preconceito, um caminho sempre tentador em época de extremos que só servem para o atraso.
A inteligência artificial, embora possa ser descrita como presente, ainda não foi desenvolvida em toda a sua dimensão técnica e é um assunto que transcende em muito as fronteiras de uma simples área geográfica. É óbvio que são necessárias regras em aspetos fundamentais como a segurança, a proteção de dados, a produção de informação, a inovação tecnológica.
Céticos e entusiasmados podem ver a Inteligência Artificial em seus extremos, para uns como Panaceia na cura de todos os males e para outros como a Caixa de Pandora, portadora de todos os males que assustam a sociedade.
Coisas horríveis na voram
A Caixa de Pandora é uma expressão muito utilizada quando se quer fazer referência a algo que gera curiosidade, mas que é melhor não ser revelado ou estudado, sob pena de se vir a mostrar algo terrível, que possa fugir de controle. Esta expressão vem do mito grego, que conta sobre a caixa que foi enviada com Pandora a Epimeteu.
É uma metáfora usada para caracterizar ações que, menosprezando o princípio de precaução, desencadeiam consequências maléficas, terríveis e irreversíveis. O mito de Pandora origina-se nos poemas épicos de Hesíodo (a Teogonia), escritos durante o século VII a.C., considerados uma das mais antigas versões sobre a origem do Universo.
Zeus deu a Pandora, como presente de casamento, uma caixa (na Grécia antiga, um jarro), mas avisou-a para nunca a abrir, pois seria melhor deixá-la intocada.
A vontade de abri-la superou qualquer precaução: coisas horríveis voaram para fora, incluindo ganância, inveja, ódio, dor, doença, fome, pobreza, guerra e morte.
Para muitos a Caixa de Pandora da IA poderia desencadear todos os males imagináveis. Logo, as opiniões parecem na maioria das vezes se dividir entre os extremos, hora é vista como a Caixa de Pandora e por vezes como Panaceia.
Vivemos, tempos privilegiados, que permitem que a mesma geração viva e, ao mesmo tempo, lidere uma transformação tecnológica disruptiva que muda as coisas para sempre. A IA não é apenas mais uma tecnologia, mas vem para mudar nossas vidas. O lançamento do Chat GPT3, um chatbot generativo de IA, é a melhor prova dessa disrupção.
Poucas semanas após seu lançamento, em novembro de 2022, ele já contava com 100 milhões de usuários que puderam verificar a potência e a facilidade de uso do sistema.
A inteligência artificial de repente se torna algo real, utilizável e tremendamente útil, apontando um caminho brilhante para um presente cheio de geração de conhecimento e transformação digital, acelerada por um chat tremendamente didático.
E como na era dos extremos, tudo precisa estar entre o céu e o inferno, surgem os primeiros alarmes sobre o lado sombrio dessa inovação.
Os riscos associados a um uso malicioso de uma ferramenta tão poderosa são listados: manipulação de sistemas democráticos, vieses, aceleração de ataques cibernéticos, empoderamento da desinformação, usos criminosos, violação de direitos fundamentais, possível deterioração dos direitos dos criadores e uma longa lista de males culminados pela possível irrupção de uma Inteligência artificial autônoma, e logo sem controle humano e com dinâmica, linguagem e propósitos próprios.


