O DALL-3 chegou e com ele podemos ter uma noção do futuro das IA

O uso da DALL-E 3 e as suas diretrizes mostram o caminho que as IA vão trilhar.

9/26/20232 min ler

A OpenAI, empresa do já tão conhecido ChatGPT, anunciou recentemente atualizações sobre a nova versão da sua Inteligência Artificial Generativa de Imagens, a DALL-E 3. Além de melhorias que resultam em imagens complexas com uma simples frase, a integração da DALL-E 3 podendo ser usada dentro do ChatGPT expande as possibilidades e simplesmente anula a necessidade de aprender sobre prompts.

"Os sistemas modernos de texto para imagem tendem a ignorar palavras ou descrições, forçando os usuários a aprender engenharia de prompt. DALL-E 3 representa um salto na nossa capacidade de gerar imagens que aderem exatamente ao texto que você fornecer." - OpenAI

Essa integração faz com que o ChatGPT automaticamente gere prompts detalhados e sob medida para o DALL-E 3 sobre aquilo que você estiver falando no chat, se caso não gostar do resultado pode simplesmente pedir ajuda ao ChatGPT para ajustar aquilo que desejar. Inicialmente o DALL-E 3 ficará disponível apenas para usuários do ChatGPT Plus e clientes corporativos no início de outubro. E como no DALL-E 2, as imagens que você gerar pertencem a você.

Além disso, quando falamos em inteligência artificial, o assunto de regulamentação precisa começar a vir a tona, pois já faz um tempo que o tema é pertinente na área. As diretrizes da OpenAI nos dão uma prévia de como serão essas regulamentações para essa tecnologia. A Adobe, por exemplo, já segue diretrizes semelhantes com a sua IA de imagens, a Adobe Firefly.

  • Assim como nas versões anteriores, tomamos medidas para limitar a capacidade do DALL·E 3 de gerar conteúdo violento, adulto ou odioso.

  • O DALL·E 3 possui mitigantes para recusar solicitações que peçam por uma figura pública pelo nome. Melhoramos o desempenho em segurança em áreas de risco, como a geração de figuras públicas e vieses prejudiciais relacionados à sobre ou sub-representação visual, em parceria com red teamers - especialistas em domínio que testam rigorosamente o modelo - para ajudar a informar nossa avaliação de riscos e esforços de mitigação em áreas como propaganda e desinformação.

  • Também estamos pesquisando as melhores maneiras de ajudar as pessoas a identificar quando uma imagem foi criada com IA. Estamos experimentando com um classificador de procedência - uma nova ferramenta interna que pode nos ajudar a identificar se uma imagem foi gerada pelo DALL·E 3 ou não - e esperamos usar essa ferramenta para entender melhor as maneiras como as imagens geradas podem ser usadas. Compartilharemos mais informações em breve.

  • O DALL·E 3 foi projetado para recusar solicitações que peçam uma imagem no estilo de um artista vivo. Os criadores agora também podem optar por excluir suas imagens do treinamento de nossos futuros modelos de geração de imagens.

O crescimento e o uso de inteligência artificial é algo inevitável, todas as novas tecnologias passaram por esse processo. E seguir a linha de proteger obras originais e aplicar diretrizes no uso dessa tecnologia para proteger os direitos das pessoas parece ser o caminho certo a seguir no uso das inteligências artificiais.