OpenAI inicia treinamento do sucessor do GPT-4 e cria comitê de segurança

Escondido em um blog post, o anúncio revela que a OpenAI está desenvolvendo seu próximo modelo de IA, enquanto enfrenta críticas sobre a nova composição de seu comitê de segurança.

29/05/20243 minutos
Salvar
openai-inicia-treinamento-do-sucessor-do-gpt-4-e-cria-comite-de-segurança

Uma revelação inesperada



Na manhã desta terça-feira, um detalhe intrigante no site da OpenAI foi notado por leitores. Escondida em um blog post sobre o novo Comitê de Segurança e Proteção da empresa, estava a primeira confirmação aparente de que a OpenAI começou o treinamento de seu aguardado sucessor do GPT-4. “Antecipamos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para a AGI”, ou seja, o ponto em que a IA pode realizar todas as tarefas no mesmo nível que os humanos, escreveu a empresa.



Veja a postagem completa aqui.



Realidade ainda um pouco distante



O modelo provavelmente ainda está longe de ser concluído. O GPT-5, ou qualquer que seja o nome que a OpenAI decida dar ao seu novo modelo de IA, provavelmente passará por meses de treinamento e ajustes antes de estar pronto. Enquanto o recente lançamento do GPT-4o focou em tornar as interações mais intuitivas, o próximo modelo da OpenAI deverá receber um grande aumento de poder. Analistas acreditam que ele será capaz de resolver problemas em múltiplas etapas e até mesmo tomar decisões que possam afetar o mundo real.



Segurança e seus questionamentos



Visando uma segurança efetiva para o ambicioso projeto, O grupo passará 90 dias analisando as vulnerabilidades de segurança e proteção da OpenAI. Depois, enviará um relatório ao conselho de diretores da empresa e dará ao público uma atualização sobre quais recomendações deseja que a OpenAI implemente antes de lançar o GPT-5.



No entanto, há uma ressalva: o novo comitê é composto pelos próprios executivos da OpenAI, incluindo o CEO Sam Altman. Pesquisadores e especialistas, incluindo ex-membros do conselho da empresa, argumentam que essa é a decisão errada. Eles afirmam que um órgão independente de fiscalização — que não tenha interesse no sucesso da empresa — deveria garantir que a OpenAI esteja mantendo a segurança como prioridade.



Curiosamente, a empresa desmantelou seu time de “superalinhamento” focado em segurança no início deste mês, após vários membros pedirem demissão, levantando preocupações sobre os padrões de segurança da OpenAI. Para aumentar a controvérsia, o ex-co-líder da equipe, Jan Leike, acabou de anunciar que está se juntando à concorrente Anthropic “para continuar a missão de superalinhamento” lá.



Clique aqui para entender melhor sobre a saída de Jan Leike da OpenAI.


Fontes: OpenAI e CNBC



------------------------------------------------------------------------------------------------------------------------------


🚀 Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA.


📩 Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial.


Foto: Sam Altman (@sama no X)

Salvar

Inscreva-se em nossa newsletter!

Receba semanalmente, atualizações, ferramentas, tutoriais e prompts em seu e-mail.