Inteligência Artificial: Washington está determinado a governar a Inteligência Artificial, mas como?

Os legisladores dos EUA estão lutando com quais grades de proteção colocar para brotar inteligência artificialmas meses depois que o ChatGPT chamou a atenção de Washington, o consenso está longe de ser seguro.

Entrevistas com um senador dos EUA, funcionários do Congresso, empresas de IA e partes interessadas mostram que uma série de opções está sendo discutida.

Algumas propostas se concentram na IA que pode colocar em risco a vida ou o sustento das pessoas, como na medicina e nas finanças. Outras opções incluem regras destinadas a garantir que a IA não seja usada para discriminar ou violar os direitos civis de um indivíduo.

Outro debate é se deve regular o desenvolvedor da IA ​​ou a empresa que a utiliza para interagir com os consumidores. E a OpenAI, a startup por trás da sensação do chatbot ChatGPT, tem discutido um regulador autônomo de IA.

É incerto quais abordagens prevalecerão, mas algumas no mundo dos negócios, incluindo IBM e a Câmara de Comércio dos EUA endossam a abordagem, que regula apenas áreas críticas como diagnósticos médicos, que eles chamam de abordagem baseada em risco.

Se o Congresso decidir que é necessária uma nova legislação, a comissão de IA da câmara dos EUA defende que “o risco seja determinado pelo impacto sobre os indivíduos”, disse Jordan Crenshaw, do Technology Engagement Center da câmara. “Uma recomendação de vídeo pode não representar tanto risco quanto as decisões financeiras ou de saúde.”

Descubra as histórias que lhe interessam


O aumento da popularidade da chamada IA ​​generativa, que usa dados para criar novos conteúdos como a prosa que soa humana do ChatGPT, despertou temores de que a tecnologia em rápida evolução esteja incentivando a trapaça em exames, alimentando a desinformação e levando a uma nova geração de golpes. . O hype da IA ​​levou a uma enxurrada de reuniões, incluindo casa branca Este mês, visite os CEOs da OpenAI, sua apoiadora microsoft corpe presidente da Alphabet Inc Joe Biden reuniu-se com os CEOs.

O Congresso também está engajado, dizem congressistas e especialistas em tecnologia.

“Os funcionários da Câmara e do Senado basicamente acordaram e todos estão sendo solicitados a cuidar disso”, disse Jack Clark, cofundador da Anthropic, startup de IA de alto perfil, cujo CEO também participou da reunião na Casa Branca. “As pessoas querem estar um passo à frente da IA, em parte porque sentem que não estão à frente das mídias sociais.”

Conforme os legisladores atualizam, a principal prioridade da Big Tech é impedir a “reação exagerada prematura”, disse Adam Kovacevich, presidente da Câmara de Progresso Pró-Tecnologia.

E enquanto legisladores como o líder da maioria no Senado, Chuck Schumer, estão determinados a adotar uma abordagem bipartidária para lidar com questões de IA, o Congresso está polarizado, há uma eleição presidencial no próximo ano e os legisladores estão lutando com outras grandes questões, como aumentar o teto da dívida.

O plano proposto por Schumer teria especialistas independentes testando novas tecnologias de IA antes de serem lançadas. Também exige transparência e o fornecimento dos dados de que o governo precisa para evitar danos.

microgerenciamento governamental

A abordagem baseada em risco significa que a IA usada para diagnosticar o câncer, por exemplo, seria examinada pela Food and Drug Administration, enquanto a IA usada para fins de entretenimento permaneceria sem regulamentação. A União Europeia tem caminhado no sentido de adotar regras semelhantes.

Mas o foco no risco parece insuficiente para o senador democrata Michael Bennet, que introduziu uma legislação que criaria uma força-tarefa estadual de IA. Ele disse que defende uma “abordagem baseada em valores” que prioriza a privacidade, as liberdades civis e os direitos.

As regras baseadas em risco podem ser muito rígidas e não reconhecer perigos como o uso de IA para recomendar vídeos que promovem a supremacia branca, acrescentou um funcionário da Bennet.

De acordo com uma pessoa que acompanha as discussões no Congresso e não está autorizada a falar com repórteres, os legisladores também debatem a melhor forma de garantir que a IA não seja usada para discriminação racial, como ao decidir quem recebe uma hipoteca com juros baixos.

Na OpenAI, os funcionários têm pensado em uma supervisão mais abrangente.

Cullen O’Keefe, pesquisador da OpenAI, em uma palestra em abril na Universidade de Stanford, sugeriu a criação de uma agência que exigiria que as empresas obtivessem licenças antes de treinar modelos de IA poderosos ou executar os data centers que os suportam. A agência, disse O’Keefe, poderia ser chamada de Office for AI Safety and Infrastructure Security, ou OASIS.

Quando perguntado sobre a proposta, Mira Murati, diretora de tecnologia da OpenAI, disse que um órgão confiável poderia “responsabilizar os desenvolvedores pelo cumprimento dos padrões de segurança”. Mais importante do que a mecânica, no entanto, foi o acordo sobre “quais são os padrões e quais riscos você está tentando mitigar”.

O último grande regulador a ser criado foi o Consumer Financial Protection Bureau, estabelecido após a crise financeira de 2007-2008.

Alguns republicanos podem recusar qualquer regulamentação de IA.

“Devemos ter cuidado para que as propostas regulatórias de IA não se tornem o mecanismo para o microgerenciamento governamental de códigos de computador, como mecanismos de busca e algoritmos”, disse um conselheiro republicano do Senado à Reuters.

(Reportagem de Diane Bartz e Jeffrey Dastin; Edição de Chris Sanders e Anna Driver)

Author: admin

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *