A OpenAI, líder em pesquisa de inteligência artificial, está tomando medidas proativas para enfrentar os riscos potenciais ligados aos sistemas de IA superinteligentes. A empresa anunciou a concessão de 10 milhões de dólares em subsídios para apoiar pesquisas focadas no controle seguro e ético de sistemas de inteligência artificial que ultrapassam a inteligência humana.
A iniciativa, chamada de programa “Superalignment Fast Grants”, busca avançar na pesquisa sobre como alinhar futuros sistemas de IA sobre-humanos, visando evitar comportamentos desonestos ou prejudiciais. As bolsas destinam-se a apoiar pesquisadores acadêmicos, organizações sem fins lucrativos e indivíduos dedicados a resolver o desafio crítico do alinhamento da IA.
Em comunicado, a OpenAI enfatizou a urgência dessa questão, destacando a importância de garantir que futuros sistemas de IA sobre-humanos estejam alinhados e seguros. A empresa acredita que este é um problema solucionável e convoca novos pesquisadores a contribuir para essa missão.
A atual supervisão humana dos sistemas de IA pode não ser suficiente à medida que a tecnologia avança e a IA superinteligente se torna uma possibilidade. A OpenAI busca encontrar maneiras inovadoras para os humanos manterem o controle eficaz sobre sistemas de IA muito mais inteligentes, propondo soluções proativas antes que esses sistemas se tornem uma realidade.
Inteligência Artificial
A empresa não apenas oferece bolsas para instituições estabelecidas, mas também patrocina a OpenAI Superalignment Fellowship, uma bolsa de US$ 150.000 por um ano, para apoiar estudantes de pós-graduação nesse campo crítico. Isso reflete o compromisso da OpenAI em cultivar a próxima geração de pesquisadores de IA e promover a colaboração entre especialistas.
A pesquisa da OpenAI identificou sete práticas fundamentais para garantir a segurança e a responsabilidade dos sistemas de IA. Essas práticas orientam o programa Superalignment Fast Grants, permitindo que os pesquisadores aprofundem seus estudos e abordem questões pendentes.
Parte significativa da iniciativa da OpenAI inclui subsídios de pesquisa para estudar o impacto dos sistemas de IA superinteligentes e desenvolver práticas para torná-los seguros e confiáveis. Esses subsídios variam de US$ 10.000 a US$ 100.000 e são direcionados especificamente para essa finalidade.
A empresa considera esses sistemas, denominados “sistemas de IA agênticos”, capazes de realizar ações autônomas e confiáveis, visando realizar tarefas complexas. A OpenAI reconhece a importância de tornar esses sistemas seguros para que a sociedade possa usufruir plenamente de seus benefícios, implementando medidas para mitigar falhas e potenciais abusos.