A lucidez sintético já derrubou um governo na Europa.
Em 2019, a mando fiscal holandesa usou algoritmos de autoaprendizagem para gerar perfis de risco para detectar fraudes em verba para creches. Quando ficou evidente que as famílias, em sua maioria minorias étnicas, foram identificadas por suspeita de fraude e depois multadas por perfis gerados por algoritmos, um enorme escândalo político derrubou o governo do primeiro-ministro holandês Mark Rutte.
-
A ex-chefe de direitos humanos das Nações Unidas, Michelle Bachelet, alertou que os sistemas de IA podem simbolizar riscos “negativos e até catastróficos” (Foto: Wikimedia)
Rutte sobreviveu. Mas milhares de vidas comuns foram arruinadas.
À medida que a lucidez sintético se torna uma particularidade precípuo, embora invisível, de nossas interações diárias, prepare-se para ainda mais disputas políticas em toda a UE centradas nas propostas da Percentagem Europeia para regular o setor.
As propostas de 2019 estão agora em curso no Parlamento Europeu – onde os grupos políticos apresentaram mais de 3.000 emendas – e devem receber a luz virente do Raciocínio em dezembro. A lei de IA da UE será acordada no próximo ano, em seguida negociações intra-institucionais.
No entanto, espere um confronto entre o Parlamento e o Raciocínio. Espera-se que os parlamentares pressionem por uma regulamentação mais rígida e melhor proteção dos direitos, enquanto os governos provavelmente defenderão menos regulamentação, citando a premência de questões de concorrência e segurança.
“O sucesso do texto estará no segurança que encontramos entre a premência de proteger os interesses e direitos de nossos cidadãos e o interesse em estimular a inovação e promover a aprovação e o desenvolvimento da IA”, disse o eurodeputado liberal romeno Dragoș Tudorache, um dos eles, disse recentemente o legislador europeu encarregado do registo. “As verdadeiras discussões políticas ainda estão por vir.”
O deputado socialista búlgaro Petar Vitanov, um dos negociadores do dossiê, diz que o foco deve ser prometer que “os direitos e liberdades fundamentais sejam protegidos, não há inovação sem direitos fundamentais”.
Questões-chave incluem a governança da lei e a definição de risco da legislação.
O legislador quer atribuir à Percentagem poderes para alargar a lista das chamadas “áreas de risco” e aumentar as coimas em caso de incumprimento para 40 milhões de euros ou sete por cento das vendas anuais.
Alguns governos da UE estão buscando isenções para o uso de IA por agências de transmigração e agências de trabalho da lei, o que pode levar a um maior escrutínio das comunidades, incluindo comunidades étnicas, que já estão sob mais escrutínio do que outras.
Enquanto alguns críticos, uma vez que a ex-chefe de direitos humanos das Nações Unidas, Michelle Bachelet, dizem que os governos deveriam impor uma moratória sobre a venda e o uso de sistemas de IA até que os riscos “adversos e até catastróficos” que eles representam sejam resolvidos.
Um relatório das Nações Unidas sobre o uso da IA uma vez que uma instrumento de previsão e geração de perfis adverte que a tecnologia pode impactar “o recta à privacidade, a um julgamento justo, à liberdade de prisão e detenção arbitrária e o recta à vida”.
Bachelet reconheceu que a IA “pode ser uma força para o muito e pode ajudar as sociedades a enfrentar alguns dos grandes desafios de nosso tempo”, mas sugeriu que os danos que ela pode trazer superam os aspectos positivos. “Quanto maior o risco aos direitos humanos, mais rigorosos devem ser os requisitos legais para o uso da tecnologia de IA”, disse ela.
A proposta da Percentagem pede a proibição de aplicativos de IA que manipulam o comportamento humano (uma vez que brinquedos que usam suporte de voz para encorajar atividades perigosas em crianças) ou sistemas que permitem “pontuação social” no estilo chinês. Também é proibido o uso de sistemas de identificação biométrica, uma vez que reconhecimento facial, para persecução criminal em espaços públicos.
Exceções são permitidas ao procurar vítimas de sequestro, identificar um perpetrador ou suspeito de um transgressão, ou para evitar uma prenúncio iminente, uma vez que um ataque terrorista.
No entanto, ativistas de direitos digitais alertam que existem “brechas” que permitem a vigilância em volume.
Qualquer isenção concedida a governos e corporações por usar um sistema de IA que é “puramente subalterno” e usado em um peça menor pode realmente “minar toda a lei”, adverte Sarah Chander, que torna o trabalho de política muito sintético. EDRi), uma rede de organizações sem fins lucrativos que trabalham para tutelar os direitos digitais na UE.
Cocuruto risco
A proposta da Percentagem centra-se nos chamados sistemas de IA de “cimo risco” que podem pôr em risco a segurança ou os direitos fundamentais das pessoas, por ex. B. Instrução (por exemplo, pontuação em exames), serviço (por exemplo, software para filtrar currículos para contratação) ou serviços públicos (por exemplo, verificações de crédito para negar às pessoas a oportunidade de obter um empréstimo).
As empresas que desejam competir com sistemas de IA nessa categoria de “cimo risco” teriam que atender aos requisitos da UE, uma vez que explicabilidade, avaliação de risco e supervisão humana.
No entanto, alguns temem que esses requisitos possam desencorajar startups e empresas de investir em tais sistemas de IA na Europa, dando aos EUA ou à China uma vantagem competitiva.
As empresas que não cumprirem a lei incorrem em multas até 30 milhões de euros ou seis por cento do seu volume de negócios global.
Chander enfatizou que alguns dos maiores danos dos sistemas de IA podem vir da prestação de serviços públicos, uma vez que serviços sociais, policiamento (onde o policiamento preditivo fundamentado em vigilância em volume é uma grande preocupação) e transmigração. Decisões sociais baseadas em IA são perigosas porque os sistemas de IA fazem suposições parecerem fatos.
Chander diz que a proposta da percentagem não vai longe o suficiente para limitar o uso do reconhecimento facial. Sua organização também quer proibir o uso de IA para policiamento preditivo e transmigração, muito uma vez que para prever emoções.
Os defensores jurídicos argumentam que as empresas devem ser obrigadas a realizar avaliações de impacto nos direitos fundamentais e fornecer informações sobre onde e uma vez que um sistema de IA está sendo usado e qual o impacto que está causando nos indivíduos.
Eles também querem que informações claras sejam fornecidas ao público, dizendo que os cidadãos devem poder buscar explicações de autoridades ou empresas. Os cidadãos também devem poder processar judicialmente se uma empresa ou mando tiver violado a AI Act ou se um tipo for afetado por um sistema proibido.
Chander disse que há um equívoco universal de que os sistemas de IA podem ser “aperfeiçoados”, e os formuladores de políticas costumam perguntar a ela uma vez que eles poderiam tornar esses sistemas melhores e menos propensos a vieses. Mas essa é a pergunta errada, argumenta ela, porque o problema é que os sistemas de IA estão replicando um sistema já discriminatório.
“Alguns sistemas não podem ser melhorados”, diz ela, acrescentando: “Não queremos edificar um sistema de policiamento preditivo perfeito ou um detector de mentiras perfeito”.