Inteligência artificial Elon Musk pesquisas
O bilionário Elon Musk e mais de mil de especialistas mundiais assinaram nesta quarta-feira, 29, um apelo para haver uma pausa de seis meses nas pesquisas sobre inteligências artificiais (IA) mais poderosas que o ChatGPT 4, o novo “cérebro” do ChatGPT lançado pela OpenAI lançado este mês. A carta aberta destaca os “grandes riscos para a humanidade”.
Elon Musk e Yuval Harari têm opiniões diferentes sobre a inteligência artificial. Musk é conhecido por ser um dos principais defensores da regulação da IA, enquanto Harari acredita que a IA pode ser benéfica para a humanidade, desde que seja usada corretamente.
Musk expressou preocupações sobre a possibilidade de a IA se tornar mais inteligente do que os humanos e potencialmente ameaçar a existência da humanidade. Ele fundou a OpenAI em 2015, uma organização sem fins lucrativos dedicada a promover e desenvolver IA amigável à humanidade. Musk também é cofundador da Neuralink, uma empresa que desenvolve interfaces cérebro-máquina.
Harari, por outro lado, acredita que a IA pode ser benéfica para a humanidade, desde que seja usada corretamente. Ele argumenta que a IA pode ajudar a resolver problemas globais, como a mudança climática e a pobreza, e que a tecnologia pode ser usada para melhorar a vida das pessoas em todo o mundo.
Em resumo, as opiniões de Musk e Harari sobre a IA são complexas e variadas. Enquanto Musk é um defensor da regulação da IA e da pesquisa para garantir a segurança da humanidade, Harari vê o potencial da IA para ajudar a humanidade a resolver problemas globais e melhorar a vida das pessoas.
Na petição, publicada no site futureoflife.org, eles pedem um prazo até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”.
Assinam a carta personalidades que expressaram medo de uma IA incontrolável superando os humanos, como Musk, dono do Twitter e fundador da SpaceX e da Tesla, e o historiador Yuval Noah Harari.
Sam Altman, CEO da OpenAI, reconheceu ter “um pouco de medo” de que sua criação seja usada para “desinformação em grande escala ou ataques cibernéticos”. “A empresa precisa de tempo para se adaptar”, disse ele recentemente à ABCNews.
“Nos últimos meses, vimos como os laboratórios de IA se lançaram em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais potentes que ninguém, nem mesmo seus criadores, podem entender, prever ou controlar de maneira confiável”, afirma a carta.
“Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e mentiras? Devemos automatizar todos os trabalhos, incluindo os gratificantes? (…) Devemos arriscar perder o controle de nossa civilização? Essas decisões não devem ser delegadas a líderes de tecnologia não eleitos”, conclui o texto.
Os signatários incluem o cofundador da Apple, Steve Wozniak, membros da DeepMind, startup de IA do Google, o diretor de Stability AI, Emad Mostaque, bem como especialistas e acadêmicos americanos de IA e engenheiros executivos da Microsoft, empresa parceira da OpenAI.
Entre os riscos dos novos modelos de IA estão o desemprego em massa e a criação de fake news – no último final de semana, uma imagem do Papa Francisco gerada por IA viralizou nas redes sociais e levantou dúvidas sobre sua veracidade.
Na semana passada, pesquisadores da Microsoft publicaram um estudo que afirma que o GPT-4 dá sinais de apresentar “capacidade humana”./ AFP