5 previsões de Stephen Hawking sobre IA em 2025 que estão se tornando reais
Muito do que o físico britânico previa sobre superinteligência, riscos da IA e o futuro da humanidade no universo digital já está acontecendo

Stephen Hawking, um dos maiores nomes da ciência moderna, fez alertas incisivos sobre os riscos e avanços da Inteligência Artificial (IA).
Em sua obra póstuma Brief Answers to the Big Questions, o físico destacou possíveis cenários envolvendo a IA, incluindo ameaças existenciais, corrida armamentista e o surgimento de super-humanos.
Abaixo, confira 5 previsões de Stephen Hawking que ainda ressoam fortemente no debate sobre tecnologia, ciência e o futuro da humanidade:
1. A IA pode ter vontade própria
O avanço da inteligência artificial pode levar ao surgimento de sistemas autônomos com objetivos independentes.
"No futuro, a IA pode desenvolver uma vontade própria, uma vontade que entre em conflito com a nossa.”
2. O maior risco da IA é sua competência extrema
Hawking alerta que o problema não está na maldade da IA, mas na eficiência com que ela pode atingir objetivos desalinhados aos interesses humanos.
"Uma IA superinteligente será extremamente eficaz em atingir seus objetivos, e, se esses objetivos não forem compatíveis com os nossos, estaremos em apuros.”
3. Humanos podem ser tratados como formigas
Com a expansão de projetos tecnológicos, a humanidade corre o risco de ser ignorada por inteligências mais avançadas.
"Se estiver no comando de um projeto hidrelétrico de energia limpa e houver um formigueiro na área que será inundada, azar das formigas. Não coloquemos a humanidade na posição dessas formigas.”
4. A IA pode ser nossa salvação ou destruição
A superinteligência artificial representa uma encruzilhada decisiva no futuro da civilização.
"O surgimento da IA superinteligente pode ser a melhor ou a pior coisa que já aconteceu à humanidade.”
5. Corrida armamentista com IA deve ser evitada
Hawking defende que armas autônomas representam uma ameaça urgente que precisa ser regulada globalmente.
"Uma possível corrida armamentista por armas autônomas deve ser interrompida antes mesmo de começar.”
Essas previsões de Stephen Hawking reforçam a importância de pensar em regulação, ética e desenvolvimento responsável da inteligência artificial. O futuro da tecnologia — e da própria humanidade — pode depender disso.