O AI Act – o primeiro regulamento jurídico que abrange a inteligência artificial e que aborda os riscos associados à mesma – foi aprovado no 3º trimestre deste ano. Este regulamento fornece aos criadores e utilizadores de IA requisitos e obrigações claros, ao mesmo tempo que visa reduzir os encargos administrativos e financeiros, em especial para as pequenas e médias empresas (PME).
Principais condições do AI Act
O AI Act introduz diversas novas regras para dar resposta aos desafios específicos colocados pelos sistemas de inteligência artificial:
- Abordagem dos riscos específicos da IA: A lei visa os riscos criados pelas aplicações de IA, proibindo práticas que representam riscos inaceitáveis e estabelecendo requisitos claros para aplicações de alto risco
- Avaliação da conformidade: Os sistemas de IA devem ser submetidos a uma avaliação de conformidade antes de serem colocados em serviço ou colocados no mercado
- Estrutura de governação: É criada uma estrutura de governação a nível europeu e nacional para garantir a conformidade e a aplicação
AI Act: Uma abordagem baseada no risco
O AI Act define quatro níveis de risco para os sistemas de inteligência artificial:
- Risco inaceitável: são proibidos os sistemas de IA que representem uma ameaça clara à segurança, aos meios de subsistência e aos direitos. Isto inclui a pontuação social atribuída pelos governos e os brinquedos que utilizam sistemas de assistência por voz que incentivem comportamentos perigosos.
- Alto risco: Os sistemas de IA de alto risco incluem os utilizados em infraestruturas críticas, educação, componentes de segurança de produtos, emprego, serviços essenciais, aplicação da lei, migração e justiça. Estes sistemas estão sujeitos a obrigações rigorosas antes de poderem ser comercializados.
- Risco limitado: Os sistemas de IA de risco limitado, como os chatbots, devem cumprir obrigações de transparência específicas para garantir que os utilizadores estão informados quando interagem com a IA.
- Risco mínimo ou nulo: Os sistemas de IA com risco mínimo ou nulo, como os jogos de vídeo com IA ou os filtros de spam, podem ser utilizados livremente.
Sistemas de IA de alto risco: Obrigações e requisitos
Os sistemas de IA de alto risco devem cumprir requisitos rigorosos, incluindo:
- Sistemas adequados de avaliação e mitigação de riscos
- Conjuntos de dados de alta qualidade para minimizar os riscos e os resultados discriminatórios
- Registo da atividade para rastreabilidade
- Documentação pormenorizada para avaliação da conformidade
- Informação clara aos responsáveis pela implementação
- Medidas de controlo humano
- Elevados níveis de robustez, segurança e precisão
Os sistemas de identificação biométrica à distância são considerados de alto risco e estão sujeitos a requisitos rigorosos, sendo a sua utilização em espaços públicos para fins de aplicação da lei geralmente proibida, salvo exceções estritamente definidas e regulamentadas.
Sistemas de IA de risco limitado: Obrigações de transparência
Os sistemas de IA de risco limitado devem garantir a transparência. Por exemplo, os utilizadores devem estar cientes quando interagem com um chatbot ou quando o conteúdo é gerado por IA. Isto promove a confiança e permite que os utilizadores tomem decisões informadas.
Por outro lado, o AI Act permite a livre utilização de sistemas de IA de risco mínimo, o que inclui a maioria das aplicações de IA atualmente utilizadas na UE.
Aplicação e execução do AI Act
Quando um sistema de IA está no mercado, as autoridades supervisionam a vigilância desse mercado, os responsáveis pela implantação asseguram a supervisão e o controlo dos utilizadores e, por fim, os fornecedores mantêm um sistema de monitorização pós-comercialização. Os fornecedores e os responsáveis pela implantação devem comunicar os incidentes graves e as avarias.
Utilização fiável de grandes modelos de IA
Os modelos de IA de uso geral, que podem executar e adaptar-se a várias tarefas, estão a tornar-se mais comuns. O regulamento AI Act introduz obrigações de transparência e requisitos adicionais de gestão dos riscos para estes modelos, incluindo a autoavaliação, a atenuação dos riscos, a comunicação de incidentes, os testes e as medidas de cibersegurança.
Qual é o papel do Gabinete Europeu de IA?
Criado em fevereiro de 2024, o Gabinete Europeu de IA supervisiona a aplicação e a execução do regulamento AI Act. O objetivo é criar um ambiente nas quais as tecnologias de IA respeitem a dignidade humana, os direitos e a confiança. O Gabinete promove a colaboração, a inovação e a investigação no domínio da IA, participa no diálogo internacional e esforça-se por posicionar a Europa como líder na governação ética da IA.
Teresa Marina, International Grants Communication