Zephyrnet Logo

CEO da OpenAI sobre questões de segurança de IA e a verdade sobre o desenvolvimento do ChatGPT-5

Data:

OpenAI O CEO Sam Altman recentemente abordou as preocupações em torno do desenvolvimento da próxima iteração do ChatGPT.

Sam Altman é um conhecido empresário e investidor no Vale do Silício. Ele cofundou o aplicativo de rede social baseado em localização Loopt em 2005, que mais tarde foi adquirido pela Green Dot Corporation. Ele também atuou como presidente da aceleradora de startups Y Combinator de 2014 a 2019, onde trabalhou em estreita colaboração com uma ampla gama de startups e ajudou a moldar a direção da indústria de tecnologia. Altman é conhecido por suas opiniões francas sobre o futuro da tecnologia, incluindo sua defesa da renda básica universal e sua crença no potencial da inteligência artificial para transformar a sociedade. Ele é um investidor ativo em várias startups, com foco particular em empresas que trabalham com tecnologias de ponta, como veículos autônomos e blockchain.

De acordo com um artigo por James Vincent para The Verge publicado em 14 de abril, o CEO e cofundador da OpenAI, Sam Altman, confirmou em 13 de abril que sua empresa não está atualmente treinando GPT-5, o suposto sucessor de seu modelo de linguagem AI GPT-4, que foi lançado em Marchar. Os comentários de Altman foram feitos durante o “Future of Business with AI” evento, que aconteceu no Centro de Conferências Samberg no MIT, onde abordou um carta aberta circulando entre o mundo da tecnologia solicitando laboratórios como o OpenAI para interromper o desenvolvimento de sistemas de IA “mais poderosos que o GPT-4”.

Como você deve se lembrar, a carta aberta foi publicada pelo Instituto Futuro da Vida em 29 de março, e foi intitulado “Pause Giant AI Experiments: An Open Letter”. Ele pediu uma interrupção temporária no desenvolvimento de poderosos sistemas de IA, como GPT-4, provocando um debate na comunidade de tecnologia.

A carta aberta afirmava: “Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis”. Os autores pediram uma pausa pública e verificável de pelo menos seis meses no treinamento de sistemas de IA mais poderosos que o GPT-4. Eles também pediram aos laboratórios de IA que desenvolvessem protocolos de segurança compartilhados para garantir o design e o desenvolvimento seguros dos sistemas de IA.

<!–

Fora de uso

-> <!–

Fora de uso

->

Entre os notáveis ​​signatários da carta aberta estavam Elon Musk, CEO da SpaceX, Tesla e Twitter; Steve Wozniak, co-fundador da Apple; Bill Gates, co-fundador da Microsoft; e Gary Marcus, pesquisador de IA e professor emérito da Universidade de Nova York.

Altman disse que a carta estava “perdendo a maioria das nuances técnicas sobre onde precisamos da pausa” e esclareceu que a OpenAI não está treinando GPT-5 no momento e não estará por algum tempo. Altman comentou: “Não estamos e não o faremos por algum tempo. Então, nesse sentido, foi meio bobo.” No entanto, ele enfatizou que a OpenAI está trabalhando em outros aspectos do GPT-4 e considerando as implicações de segurança desse trabalho. Altman afirmou: “Estamos fazendo outras coisas além do GPT-4 que acho que têm todos os tipos de problemas de segurança que são importantes de abordar e foram totalmente deixados de fora da carta”.

[Conteúdo incorporado]

The Verge observa que o debate sobre a segurança da IA ​​é desafiado pela dificuldade de medir e acompanhar o progresso. Vincent aponta a falácia dos números de versão, onde se supõe que as atualizações tecnológicas numeradas refletem melhorias definidas e lineares na capacidade, um equívoco alimentado no mundo da tecnologia de consumo. Essa lógica é frequentemente aplicada a sistemas como os modelos de linguagem da OpenAI, levando a alguma confusão e possível desinformação.

Vincent argumenta que a confirmação de Altman de que a OpenAI não está atualmente desenvolvendo o GPT-5 pode não servir de consolo para aqueles preocupados com a segurança da IA, já que a empresa ainda está expandindo o potencial do GPT-4 e outros no setor estão construindo ferramentas igualmente ambiciosas.

Em conclusão, Vincent escreve: “Mesmo que os governos do mundo fossem de alguma forma capazes de proibir novos desenvolvimentos de IA, é claro que a sociedade está ocupada com os sistemas atualmente disponíveis. Claro, o GPT-5 ainda não está chegando, mas isso importa quando o GPT-4 ainda não é totalmente compreendido?”

local_img

VC Acadêmico

Café VC

Inteligência mais recente

local_img