Só em Hong Kong, 83 escolas já usam o software, que podem reconhecer emoções humanas e estados mentais
Por Charles Machado – DF
Nesse momento vivemos um divisor de águas na regulação da inteligência artificial. Já ultrapassamos os limites divisionais entre os românticos que acreditam que não precisa de regulação e os que tudo entendem que precisa ser regulado.
Antecipamos que ao nosso ver é possível buscar um meio termo para o primeiro momento, e que só essa primeira experiência de regulação é que pode servir de ponto de partida para o que está por vir, seja nos elementos hipotéticos que são novos de serem ainda pensados, ou na total ausência de experiência na regulação dessa matéria.
Vejamos alguns exemplos bem práticos, considerando o que já se pratica no mundo: Tente imaginar se as escolas começarem a utilizar a inteligência artificial para registro das emoções dos nossos filhos em sala de aula?
Já pensou o registro de rostos na multidão que indicam um quadro depressivo? Já pensou uma pesquisa de opinião pública realizadas através do reconhecimento facial da felicidade?
Em 2020, estudantes da True Light College, uma escola secundária de garotas de Hong Kong, assistiram às aulas de casa. No entanto, ao contrário da maioria das crianças do mundo forçadas pela pandemia a assistir às aulas online, os alunos da True Light estavam sendo observados, nesse grande laboratório que se transformou a pandemia.
Um olhar constante analisou a expressão facial das meninas através das câmeras de seus computadores. O visual pertence a um software chamado 4 Little Trees, um programa de inteligência artificial (IA) que afirma ser capaz de ler as emoções dos alunos enquanto aprendem. O objetivo é ajudar os professores a personalizar e tornar o ensino a distância mais interativo, para que eles possam responder às reações dos alunos em tempo real.
Um programa que está sendo usado em Hong Kong
O algoritmo 4 Little Trees mede os micromovimentos dos músculos faciais e tenta identificar emoções como alegria, tristeza, raiva, surpresa ou medo. A empresa garante que os algoritmos geram relatórios sobre o estado emocional de cada aluno, podendo também avaliar sua motivação e atenção. Eles também alertam os alunos para prestarem atenção novamente quando estiverem distraídos.
Imagine que o mesmo poderia ser utilizado para identificar interesse dos alunos e ou desaprovação dos mesmos as questões e formas como elas são colocadas pelos professores? Imagina a escola remunerando esses professores (apenas como variável) pelo grau de empatia desenvolvido com os alunos?
No caso do programa utilizado na experiência relatada, ele lê corretamente os sentimentos das crianças em aproximadamente 85% dos casos.
Só em Hong Kong, 83 escolas já usam o software, chamado de Pequena Árvores, utiliza um dos novos algoritmos que, segundo seus criadores, podem reconhecer emoções humanas e estados mentais, como cansaço, estresse e ansiedade através de uma análise de expressão facial, microgestos, movimento ocular e tom de voz. Imagina os intervalos de aula e ou mudança de atividade sendo registradas e cronometradas de acordo com o aumento de cansaço dos alunos que indica um menor aproveitamento da aula?
A tecnologia utilizada nada mais é do que uma evolução dos sistemas de reconhecimento facial, mas muito mais invasiva, já que, supostamente, não só entende como a pessoa se sente em um dado momento, mas pode decodificar suas intenções e prever sua personalidade, com base em expressões fugazes. Esse é só um exemplo do uso, e da necessidade de uma regulação mínima, pois considerando a importância capital da Inteligência Artificial estamos engatinhando no que pode ser feito e nos desafios regulatórios propostos por esses avanços tecnológicos.
Os desafios para definir o marco regulatório são grandes, principalmente pela complexidade de fatores e alcance de aplicação, que tornam a questão ainda mais impactante. Contudo, é fundamental que os agentes de desenvolvimento demonstrem práticas de governança sobre seus ambientes, tecnologias e pessoas envolvidas no ciclo de vida de uma IA estabeleçam um canal obrigatório de dúvidas e respostas aos usuários, além de definir a utilização de serviços críticos e incluir a revisão humana para prevenção de erros fatais ou que coloquem em risco os direitos fundamentais dos usuários.
No momento, o regulamento que estabelece regras harmonizadas sobre IA está em discussão no Parlamento Europeu enquanto se aguarda a adoção de sua versão final nos próximos dias. A Comissão Europeia, o Parlamento e o Conselho terão de chegar a acordo sobre um parecer comum, para a sua aprovação final.
Armadilha é estabelecer conceito
A norma deve ser aprovada em janeiro de 2024, os sandbox existentes em diversos países europeu incluem o estudo de algoritmos para testar a eficácia de um marco legal que não pretende regular sistemas de IA, mas os riscos de suas aplicações.
Uma das principais armadilhas de qualquer regulação é querer estabelecer o conceito de IA para que seja conceitualmente aplicável também aos novos avanços tecnológicos, o que representa o aprisionamento de uma forma que é dinâmica.
O Conselho da UE já definiu IA como um sistema projetado para operar com um certo nível de autonomia com dados fornecidos para alcançar objetivos definidos pelo ser humano usando o aprendizado para produzir conteúdos, previsões, recomendações ou decisões que influenciam os ambientes com os quais o sistema interage
A regulamentação legal desta tecnologia baseia-se nos diferentes riscos que podem ser distinguidos na sua utilização. O regulamento estabelece um risco inaceitável e, por conseguinte, proíbe a utilização de sistemas contrários aos valores fundamentais da UE.
Entre essas proibições está o uso de técnicas subliminares com o objetivo de alterar o comportamento das pessoas; sistemas que explorem as vulnerabilidades de um grupo específico de pessoas, ou o uso de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público por autoridades responsáveis pela prevenção, investigação, detecção ou repressão de crimes.
Outro pilar do futuro padrão é considerar uma série de sistemas de IA como de alto risco, desde que atendam a duas condições. Em primeiro lugar, devem ser componentes de segurança dos produtos abrangidos pela legislação, tais como máquinas, brinquedos, barcos, equipamento de proteção entre outros. Os sistemas de alto risco incluem, entre outros, aqueles destinados à seleção de empregos ou ao acesso a serviços públicos essenciais.
O Conselho Europeu introduziu uma nova categoria chamada sistemas de IA de uso geral que executam funções genéricas, como reconhecimento de imagem e fala, geração de áudio e vídeo, detecção de padrões e fornecem respostas a perguntas como o ChatGPT.
Em um caso julgado na Espanha, o magistrado García Marcos garante que “os provedores desses sistemas terão que ser submetidos ao procedimento de verificação previsto para IA de alto risco”, garantindo que seus usuários sejam informados de que interagem com um sistema de inteligência artificial. Lembro que a Itália foi o primeiro país a proibir o uso do ChatGPT porque não tem uma base legal para a coleta de dados e também está aberto a menores.