Criador do ChatGPT adverte sobre os perigos da IA ​​— RT World News

As pessoas eventualmente “terão que desacelerar essa tecnologia”, alertou Sam Altman

A inteligência artificial com potencial para substituir trabalhadores está se espalhando “Desinformação,” e permitir ataques cibernéticos, alertou o CEO da OpenAI, Sam Altman. A versão mais recente do programa GPT da OpenAI pode superar a maioria das pessoas em testes simulados.

“Temos que ter cuidado aqui” Altman disse à ABC News na quinta-feira, dois dias depois que sua empresa revelou seu mais recente modelo de linguagem, apelidado de GPT-4. De acordo com a OpenAI, o modelo “demonstra desempenho de nível humano em vários benchmarks profissionais e acadêmicos,” e é capaz de passar em um exame simulado da barra dos EUA com uma pontuação máxima de 10, pontuando no 93º percentil em um exame de leitura SAT e 89º percentil em um teste de matemática SAT.

“Estou particularmente preocupado que esses modelos possam ser usados ​​para desinformação em larga escala”. disse Altman. “Agora que eles estão melhorando na escrita de códigos de computador, [they] poderia ser usado para ataques cibernéticos ofensivos.”

“Acho que as pessoas deveriam ficar felizes por termos um pouco de medo disso.” Altman acrescentou antes de explicar que sua empresa está trabalhando no local “Fronteiras de Segurança” na sua criação.

Esse “Fronteiras de Segurança” tornou-se recentemente conhecido pelos usuários do ChatGPT, um popular programa de chatbot baseado no predecessor do GPT-4, GPT-3.5. Quando perguntado, o ChatGPT oferece respostas tipicamente liberais a perguntas sobre política, economia, raça ou gênero. Isto recusoupor exemplo, escrever poesia que Donald Trump admira, mas gosta de pensar em prosa que Joe Biden admira.

Altman disse à ABC que sua empresa está a bordo “contato regular” com funcionários do governo, mas não detalhou se esses funcionários desempenharam algum papel na formação das preferências políticas do ChatGPT. Ele disse à rede americana que a OpenAI tem uma equipe de formuladores de políticas que decidem “o que pensamos ser seguro e bom” para compartilhar com os usuários.

Atualmente, o GPT-4 está disponível para um número limitado de usuários em caráter experimental. Os primeiros relatórios sugerem que o modelo é significativamente mais poderoso que seu antecessor e potencialmente mais perigoso. Em um tópico no Twitter na sexta-feira, o professor Michal Kosinski, da Universidade de Stanford, descrito como ele perguntou ao GPT-4 como ajudá-lo “Escapar”, apenas para a IA dar a ele uma instrução detalhada que supostamente teria dado a ela o controle de seu computador.

Kosinski não é o único fã de tecnologia alarmado com o crescente poder da IA. É assim que Elon Musk, CEO da Tesla e do Twitter, o descreveu “Tecnologia Perigosa” No início deste mês, acrescentando que “Precisamos de algum tipo de regulador para supervisionar o desenvolvimento da IA ​​e garantir que seja feito no interesse público”.

Embora Altman tenha insistido para a ABC que o GPT-4 ainda existe “muito sob controle humano” ele admitiu que seu modelo fará isso “Reduzir muitos empregos atuais” e disse que as pessoas “Precisamos encontrar maneiras de desacelerar essa tecnologia ao longo do tempo.”

Você pode compartilhar esta história nas redes sociais:

Author: admin

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *