A revolução atual da inteligência artificial (IA) deve muito a um estudo científico divulgado em 2017 por oito pesquisadores da Google. Esse estudo apresentou ao mundo o Transformer, modelo que possibilitou a criação do GPT, a 'mente' do ChatGPT.
Mas, a crescente competição pela liderança tecnológica entre as grandes empresas do setor pode impedir que tal evento ocorra novamente, com consequências imprevisíveis para o progresso tecnológico.
Mas, a crescente competição pela liderança tecnológica entre as grandes empresas do setor pode impedir que tal evento ocorra novamente, com consequências imprevisíveis para o progresso tecnológico.
Em maio, o Washington Post informou que Jeff Dean, líder de IA da Google, orientou seus pesquisadores a serem mais reservados na publicação de estudos científicos. Essa é uma mudança significativa para uma empresa que se tornou conhecida por promover pesquisas abertas com o objetivo de não apenas aprimorar seus próprios produtos, mas também impulsionar avanços científicos.
Desde 2019, os cientistas da empresa publicaram mais de 500 documentos científicos.
Desde 2019, os cientistas da empresa publicaram mais de 500 documentos científicos.
Segundo o site Insider, um empregado da empresa recebeu a seguinte mensagem da direção da Google: "Não estamos mais publicando tudo. É tempo de competir e manter o conhecimento dentro de casa". Portanto, o objetivo seria incorporar as descobertas científicas aos produtos da empresa antes de divulgá-las para a comunidade científica e para os concorrentes.
Essa mudança de postura ocorreu após o lançamento do ChatGPT pela OpenAI. A OpenAI, que já era conhecida como 'ClosedAI' por se recusar a trabalhar de maneira mais aberta com a comunidade científica, viu sua ferramenta ganhar popularidade rapidamente, enquanto o espírito de colaboração científica evaporava.
A McKinsey estima que o uso de IA gerativa (da qual o ChatGPT é um exemplo) pode adicionar anualmente US$ 4,4 trilhões à economia global. Diante disso, o Google optou por adotar uma postura mais cautelosa na divulgação de ferramentas de IA, considerando seu potencial perigoso.