Sam Altman, CEO da OpenAI, pediu a regulamentação da inteligência artificial durante uma audiência no Senado dos EUA. “Acreditamos que a intervenção regulatória dos governos será essencial para mitigar os riscos de modelos cada vez mais poderosos”, disse Altman.
Uma lista crescente de empresas de tecnologia implantou novas ferramentas de IA nos últimos meses, com potencial para mudar a forma como trabalhamos, fazemos compras e interagimos uns com os outros. Mas estas mesmas ferramentas também suscitaram críticas pelo seu potencial de perturbar milhões de empregos, espalhar desinformação e perpetuar preconceitos.
“Haverá um impacto no emprego”, disse Altman. “Estamos tentando ser muito claros sobre isso e acho que será necessária a colaboração entre a indústria e o governo, mas especialmente a ação governamental, para descobrir como queremos mitigá-lo."
Como CEO da OpenAI, Altman, talvez mais do que qualquer outra figura, tornou-se o rosto de uma nova geração de produtos de IA capazes de gerar imagens e texto em resposta à entrada do utilizador.
Algumas pessoas esperam que Altman e OpenAI atuem com mais cautela. Elon Musk, que ajudou a fundar a OpenAI antes de se separar do grupo, juntou-se a dezenas de líderes tecnológicos, professores e investigadores na assinatura de uma carta apelando aos laboratórios de IA para pararem de treinar sistemas mais poderosos durante pelo menos seis meses, citando riscos profundos para a sociedade e a humanidade."
Altman reconheceu concordar com partes da carta. “Acho que agir com cautela e aumentar o rigor nas questões de segurança é realmente importante”.
Alertas sobre inteligência artificial |
Apesar dos surpreendentes avanços da inteligência artificial, seu surgimento massivo também trouxe efeitos negativos, em muitos casos com destaque para questões trabalhistas ou de direitos autorais.
> IA consciente
Em julho do ano passado, um engenheiro do Google foi demitido da empresa devido a um problema que na época não causava tanto impacto como agora no público em geral. Blake Lemoine, que era então engenheiro de software no Google, afirmou que uma tecnologia de conversação chamada LaMDA (ou "Modelo de Linguagem para Aplicações de Diálogo") atingiu um nível de consciência depois de trocar milhares de mensagens com ela.
> Detenção dos avanços
Professores, pesquisadores e líderes tecnológicos, incluindo Elon Musk, pediram em março que os laboratórios de inteligência artificial interrompessem o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”.
> Perda de emprego
Em Março, economistas da Goldman Sachs observaram que até 300 milhões de empregos a tempo inteiro em todo o mundo poderiam ser automatizados de alguma forma com a nova onda de inteligência artificial.
O Fórum Econômico Mundial (WEF) afirmou que as empresas de todo o mundo esperam uma perda líquida de 14 milhões de empregos nos próximos cinco anos, à medida que a economia enfraquece e impulsiona as tecnologias de IA.
> Proibições
Em março, o Governo de Itália alertou o ChatGPT devido a preocupações relativas a uma possível violação da proteção de dados. Isto levou a administração a bloquear o acesso à ferramenta OpenAI até que a regulamentação prevista fosse respeitada.
Também nesse sentido, a Samsung proibiu recentemente temporariamente o uso de inteligência artificial generativa nos dispositivos da empresa.
> Entre a realidade e as “Fake News”
Geoffrey Hinton, considerado o “padrinho da inteligência artificial”, confirmou que deixou seu cargo no Google na semana passada após alertar sobre os “perigos” da tecnologia que ajudou a desenvolver. Hinton disse que renunciou ao Google para poder falar livremente sobre os perigos da IA. Através de uma entrevista, acrescentou preocupações sobre o potencial da inteligência artificial para eliminar empregos e criar um mundo em que muitos “não serão mais capazes de saber o que é verdade”. Ele também notou o ritmo surpreendente do progresso, muito além do que ele e outros haviam previsto.