Publicidade

Prepare o Bunker: OpenIA vai dar US$ 10 milhões para devs ajudarem a controlar IA e impedir ‘fim do mundo’

Por Luciano Rodrigues
Foto: Rebel Satoshi / Divulgação

A OpenAI, líder em pesquisa de inteligência artificial, está tomando medidas proativas para enfrentar os riscos potenciais ligados aos sistemas de IA superinteligentes. A empresa anunciou a concessão de 10 milhões de dólares em subsídios para apoiar pesquisas focadas no controle seguro e ético de sistemas de inteligência artificial que ultrapassam a inteligência humana.

A iniciativa, chamada de programa “Superalignment Fast Grants”, busca avançar na pesquisa sobre como alinhar futuros sistemas de IA sobre-humanos, visando evitar comportamentos desonestos ou prejudiciais. As bolsas destinam-se a apoiar pesquisadores acadêmicos, organizações sem fins lucrativos e indivíduos dedicados a resolver o desafio crítico do alinhamento da IA.

CONTINUA APÓS A PUBLICIDADE

Em comunicado, a OpenAI enfatizou a urgência dessa questão, destacando a importância de garantir que futuros sistemas de IA sobre-humanos estejam alinhados e seguros. A empresa acredita que este é um problema solucionável e convoca novos pesquisadores a contribuir para essa missão.

A atual supervisão humana dos sistemas de IA pode não ser suficiente à medida que a tecnologia avança e a IA superinteligente se torna uma possibilidade. A OpenAI busca encontrar maneiras inovadoras para os humanos manterem o controle eficaz sobre sistemas de IA muito mais inteligentes, propondo soluções proativas antes que esses sistemas se tornem uma realidade.

Inteligência Artificial

A empresa não apenas oferece bolsas para instituições estabelecidas, mas também patrocina a OpenAI Superalignment Fellowship, uma bolsa de US$ 150.000 por um ano, para apoiar estudantes de pós-graduação nesse campo crítico. Isso reflete o compromisso da OpenAI em cultivar a próxima geração de pesquisadores de IA e promover a colaboração entre especialistas.

CONTINUA APÓS A PUBLICIDADE

A pesquisa da OpenAI identificou sete práticas fundamentais para garantir a segurança e a responsabilidade dos sistemas de IA. Essas práticas orientam o programa Superalignment Fast Grants, permitindo que os pesquisadores aprofundem seus estudos e abordem questões pendentes.

Parte significativa da iniciativa da OpenAI inclui subsídios de pesquisa para estudar o impacto dos sistemas de IA superinteligentes e desenvolver práticas para torná-los seguros e confiáveis. Esses subsídios variam de US$ 10.000 a US$ 100.000 e são direcionados especificamente para essa finalidade.

A empresa considera esses sistemas, denominados “sistemas de IA agênticos”, capazes de realizar ações autônomas e confiáveis, visando realizar tarefas complexas. A OpenAI reconhece a importância de tornar esses sistemas seguros para que a sociedade possa usufruir plenamente de seus benefícios, implementando medidas para mitigar falhas e potenciais abusos.

CONTINUA APÓS A PUBLICIDADE
Compartilhe este artigo
Siga:
Jornalista, assessor de comunicação e escritor. Escreve também sobre cinema, séries, quadrinhos, já publicou dois livros independentes e tem buscado aprender mais sobre criptomoedas, o suficiente para poder compartilhar o conhecimento.
Sair da versão mobile