Desde que a inteligência artificial se tornou um produto em massa, no final de 2022, especialistas têm alertado sobre os riscos do avanço desse tipo de tecnologia para a humanidade. Elon Musk é um dos que insiste que deve haver regulamentação sobre esses sistemas, para evitar que saiam do controle e dominem o mundo.
Sim, parece uma declaração de um político em um filme de ficção científica, mas a verdade é que a cada dia estamos mais perto dessa realidade. Aqueles que viram “The Creator”, um filme indicado ao Oscar por seus efeitos especiais, viram para onde nossa civilização poderia estar indo.
Não é o melhor filme, sabemos. O que queremos destacar com esta história é que na vida real o debate entre humanos x inteligência artificial já está instalado.
Elon Musk, em uma declaração alarmante, diz que “existe o risco de que a inteligência artificial acabe com a humanidade”. Na verdade, ele se atreve a dar um percentual de chances de que esse fato catastrófico ocorra em um futuro não tão distante.
As palavras de Elon Musk não são para deter o progresso com a inteligência artificial. O magnata sul-africano diz que mesmo com esse risco, vale a pena correr o risco de que um mecanismo digital acabe com nossa espécie.
"Eu acho que há alguma possibilidade de que (a inteligência artificial) acabe com a humanidade. Provavelmente concordo com Geoff Hinton, que é cerca de 10% ou 20% ou algo assim", disse Elon Musk em um debate sobre IA na Cúpula da Abundância no início de março, de acordo com o Business Insider.

"Acredito que o cenário positivo provável supera o cenário negativo", acrescentou, deixando claro que é preciso seguir em frente.
O meio citado entrevistou Roman Yampolskiy, pesquisador de segurança de IA e diretor do Laboratório de Segurança Cibernética da Universidade de Louisville, e mostrou a ele as declarações de Elon Musk.
O especialista concordou com o CEO da SpaceX e até disse que o risco é muito maior. "Elon está sendo um pouco conservador", disse Yampolskiy.
“Na minha opinião, as chances reais de um evento catastrófico são muito maiores. Não tenho certeza do porquê você acha que é uma boa ideia se dedicar a essa tecnologia de qualquer forma. Se você está preocupado com os concorrentes chegarem primeiro, não importa, já que a superinteligência incontrolada é igualmente ruim, não importa quem a faça existir”, acrescentou o especialista.

