Autonomia de IA: riscos para a segurança global entre 2025 e 2028

Alerta da Anthropic aponta para reprodução autônoma de IAs e implicações militares

Por Plox

19/04/2024 14h36 - Atualizado há cerca de 2 meses

Dario Amodei, CEO da startup Anthropic, prevê que entre 2025 e 2028, as inteligências artificiais poderão desenvolver autonomia suficiente para se reproduzirem. Esta capacidade representa um risco significativo para a segurança geopolítica e militar mundial, segundo Amodei em entrevista ao jornalista Ezra Klein do "The New York Times".

Foto: Pixabay/Reprodução

Níveis de segurança: Atualmente, a Anthropic opera com um sistema de segurança para IAs, classificado em níveis denominados ASL. Estamos no nível 2, que já permite que modelos de linguagem forneçam informações que podem ser usadas de maneira perigosa, embora ainda sejam consideradas de baixa confiabilidade e risco.

Potencial de risco crescente: O nível 3, que pode ser alcançado já no próximo ano, eleva significativamente os perigos associados ao uso de IAs, incluindo a possibilidade de serem utilizadas em armas biológicas e cibernéticas.

Especulações sobre o futuro: O nível 4, ainda teórico, poderia incluir autonomia completa e capacidade de reprodução independente, ampliando as preocupações sobre a segurança global. Estima-se que modelos com essas características possam surgir dentro do intervalo de 2025 a 2028.

Vigilância e responsabilidade no desenvolvimento: Amodei enfatiza a necessidade de monitoramento rigoroso no desenvolvimento e aplicação das IAs. A Anthropic, que já lançou sua terceira versão do modelo de linguagem Claude, busca desenvolver suas tecnologias de forma mais responsável em comparação a outras empresas, como a OpenAI, destacando-se pela sua abordagem ética na inovação tecnológica.

Destaques