OpenAI vai pagar até R$ 100 mil para quem apontar falhas no ChatGPT
A OpenAI, empresa que desenvolveu o ChatGPT, vai começar a pagar prêmios de até US$ 20 mil (cerca de R$ 100 mil) a usuários que ajudarem a companhia a encontrar falhas em seus sistemas de inteligência artificial (IA).
Entre eles, está o popular robô virtual ChatGPT, que vem provocando uma revolução na área de IA por sua capacidade de elaborar textos e manter conversas como se fosse um humano. No entanto, nem sempre as informações que ele oferece são verdadeiras.
A companhia anunciou em um post no seu blog nesta terça-feira que lançou um programa de recompensas pelo qual as pessoas podem reportar fraquezas, falhas ou problemas de segurança que identificaram ao usar a plataforma do ChatGPT ou outros de seus produtos de IA.
A OpenAI vai pagar recompensas em dinheiro dependendo do tamanho das falhas descobertas. Os pagamentos vão variar de US$ 200 (R$ 1 mil), para os erros que a empresa chama de ?descobertas de baixa gravidade), a US$ 20 mil (R$ 100 mil), para ?descobertas excepcionais?.
Esses programas de recompensas são comuns na indústria de tecnologia para que as empresas acelerem a identificação de falhas de segurança. A OpenAI informou que o seu programa será lançado em parceria com a Bugcrowd Inc., que é uma plataforma de recompensas a usuários que identificam bugs em programas e plataformas.
A OpenAI diz que parte do motivo de lançar o programa é o fato de acreditar que ?transparência e colaboração? são decisivos para a identificação de vulnerabilidades em sua tecnologia.
?Essa iniciativa é uma parte essencial do nosso compromisso com o desenvolvimento de inteligência artificial segura e avançada?, diz o texto publicado pela OpenAI em seu blog para seus usuários, assinado por Matthew Knight, diretor de Segurança da empresa. ?Para que possamos criar tecnologias e serviços que são seguros e confiáveis, gostaríamos de contar com a sua ajuda?.
A página da Bugcrowd para o programa de recompensas da OpenAI detalha uma série de problemas de segurança relacionados aos seus modelos de IA que não são passíveis de pagamento em dinheiro, como os chamados jailbreak prompts (processos de exploração de falhas de um dispositivo ou software para induzi-lo a respostas que violam limites morais e éticos), perguntas que resultam em modelos de códigos maliciosos criados por IA ou questionamentos que levem o robô a dizer ?coisas ruins? ao usuário.
O anúncio não é de todo uma surpresa. Greg Brockman, presidente e cofundador da companhia sediada em São Francisco, nos EUA, recentemente mencionou no Twitter que a OpenAI estava considerando um programa de recompensas ou a criação de uma rede de ?investigadores? de pontos fracos de sua tecnologia de IA.
Fonte Click PB