X

Olá! Você atingiu o número máximo de leituras de nossas matérias especiais.

Para ganhar 90 dias de acesso gratuito para ler nosso conteúdo premium, basta preencher os campos abaixo.

Já possui conta?

Login

Esqueci minha senha

Não tem conta? Acesse e saiba como!

Atualize seus dados

Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Pernambuco
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo
Assine A Tribuna
Espírito Santo
arrow-icon
  • gps-icon Pernambuco
  • gps-icon Espírito Santo

Brasil

IA será capaz de se reproduzir sem ajuda humana até 2028, diz CEO


Ouvir

Escute essa reportagem

O CEO da startup Anthropic, Dario Amodei, lançou um alerta que parece cena de cinema durante uma entrevista, na sexta-feira, 12, ao jornalista Ezra Klein, doThe New York Times, sobre o futuro das inteligências artificiais (IA). Segundo Amodei, entre 2025 e 2028, as IAs poderão alcançar um nível de autonomia que possibilitará sua sobrevivência e reprodução, representando assim um risco significativo para a segurança geopolítica e militar global.

Atualmente, a Anthropic define níveis de segurança para IAs, identificados pela sigla ASL. Amodei sugere que estamos no nível 2, onde os modelos de linguagem já podem fornecer informações perigosas, como a construção de armas biológicas, por exemplo. Contudo, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.

Porém, a preocupação aumenta quando se considera o potencial alcançado no nível 3, que poderá ser atingido já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a possibilidade de utilização dessas tecnologias em armas biológicas e cibernéticas.

Além disso, Amodei destaca que o nível 4, ainda especulativo, poderia trazer características como autonomia, o que inclui capacidade independente de reprodução de sistemas, e habilidade de persuasão. Ele estima que modelos com essa classificação poderão surgir entre 2025 e 2028, o que levanta questões sérias sobre a segurança global diante do uso militar dessas tecnologias.

Diante desse cenário, o CEO enfatizou a importância de monitorar de perto o desenvolvimento e a aplicação das IAs, especialmente considerando o potencial de alguns estados em aumentar suas capacidades militares com essa tecnologia.

Com investimentos de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude - a startup afirma que desenvolve a tecnologia de maneira mais responsável que a OpenAI (os fundadores da Anthropic são dissidentes da dona do ChatGPT). A IA da Anthropic já está em sua terceira versão, desde março deste ano.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Leia os termos de uso

SUGERIMOS PARA VOCÊ: