O Centro de Segurança de IA lançou uma nova Declaração sobre o Risco de IA, onde discute os problemas potenciais que podem ser causados pela expansão de nossa pesquisa sobre a nova tecnologia.
Pesquisadores, formuladores de políticas, jornalistas e muito mais colaboraram nesta declaração, que diz que "mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear".
Embora isso pareça pintar um quadro bastante terrível de nosso futuro, alguns acreditam que a declaração está realmente pedindo aos governos que intervenham para que as empresas de IA já estabelecidas possam manter sua posição. O desenvolvimento não regulamentado de IA pode levar alguns grandes nomes da tecnologia a perder suas atuais lideranças no mercado, então talvez haja mais do que apenas um apelo pela segurança da humanidade nesta declaração.
O que você acha? A IA levará à nossa extinção?