É preciso lembrar que quem culpa os tais 'algoritmos' ignora que eles não são produzidos do além, mas sim por pessoas. E o viés ideológico dessas pessoas faz toda diferença.
Na verdade as Inteligências Artificiais (IAs) utilizam em seus dados de treinamento dados reais. Se os dados reais tiverem algum viés ideológico, preconceito ou qualquer outro tipo de problema, o algoritmo irá replicar. Por isso, quem treina as IAs precisam tratar os dados usados no treinamento para combater esse tipo de problema.
@@filipealmeida9397 ainda sim, na minha opniao, não acho que o problema foram as fontes duvidosas, eles sabiam o que tava fazendo, a google nao é nada pequena,em algum momento do vídeo o próprio lion até cita o fato da Google querer um gerador de imagem mais "diverso". Preferiram lacrar a entregar um produto convincente.
Uma coisa muito importante é o prompt que representa a camada encapsuladora da IA Generativa. Tanto o Bard (que agora se chama Gemini), quanto o chat GPT e outros possuem um prompt para justamente tentar limitar certos tipos de resposta. O problema é que é super complicado fazer um prompt que seja muito abrangente. Então não necessariamente precisamos trocar a base de dados, podemos através de engenharia de prompt criar um ideal
@@wendel8350 na verdade eles viram que os dados são preconceituosos, e isso é um fato. Preconceito é o que? Crime. Logo tem que ser tratado. O problema é a gambiarra para tratar isso.
Cara, existem mais negros em sub empregos sim, é apenas um reflexo da vida real, simples, não é racismo, é apenas a vida, os negros na maioria dos países ainda sofrem com consequências da escravidão
@@alcrian8627 não estou comparando o chat gpt e o gemini e sim tudo em geral a maioria das coisas o Google perde por outras empresas de IA isso é bem claro, por que o Google ta atrasado nessa área inclusive ta uma piada esse criador de imagens do Google a OpenAI a nova IA de vídeo da uma surra em todas a Sora pelo visto vai revolucionar essa área
@@joprogamer8903Amigo, pelo visto você não atua muito no campo da IA. Realmente, o Sora é o que temos de melhor em geração de vídeo (não saiu pro público geral, ainda). Mas, o foco do Gemini não é esse. Se você trabalha com IA, sabe o quão referência Gemini é pra muita coisa. O ChatGPT é uma IA de modelo de linguagem, ou seja, ele foca em palavras. Ele é horrível pra cálculos ou qualquer outra coisa que não seja relacionada à linguagem. Gemini, por outro lado, é uma junção de vários projetos de IA do Google. Ele faz cálculos corretamente, ele corrige código de programação corretamente (inclusive, faz sugestões de otimização). O Google tá anos luz na frente do que o ChatGPT oferece.
Sou graduando em ciências sociais na universidade estadual do sudoeste da Bahia. Minha Tese terá base nas relações entre IA, relações étnicas e a vida de artistas. É muito massa que frequentemente eu pego material com os videos de vcs ❤️
Nao tem sentido vc trabalhar em uma tese sobre um assunto que vc nao sabe como funciona. Digo isso, pois acho dificil que com sua formaçao vc entenda alguma coiaa da matematica envolvida em redes neurais.
Se eu não me engano, no online do Call of Duty World War 2 de 2017, você também podia criar seus soldados alemães sendo mulheres negras, o que era totalmente bizarro e tirava um pouco da imersão de estar jogando um jogo da segunda guerra mundial. No Battlefield V também se não me engano da para ser uma mulher asiática no time alemão...
Eu sei mas tem negro que quer se sentir como um soldado na segunda guerra. Eu também acharia daora " e se os soldados fossem negros" e refletir um pouco. Precisa olha pra todos os lados
Diversidade de maneira forçada dá isso aí, quando os dados já vem com viés, se você não trata de forma certa acontece exatamente isso, bastar mudar 1 parâmetro errado que surge coisas bizarras como essa
Problemas listado: - Pediram a foto de um soldado alemão de 1943 e a IA misturou a vestimenta e pose de um soldado com pessoas aleatórias. - A IA seguiu a base de dados dela (Tendo "preferencia" por gerar as características das pessoas que encaixem melhor no contexto segundo a base de dados dela). Para tentar corrigir isso, afinaram para que tivesse uma diversidade de características nas imagens geradas e foi isso que a IA fez. (O caso da sereia foi 100% ajuda da Disney. Não existem fotos de sereias reais, seu tio pescador mentiu). Solução simples e viável: deixa o usuario colocar a palavra "Diversidade" por conta propria no prompt, certamente ninguém vai pedir diversidade para as fotos de soldado alemão de 1943. A IA sabe gerar pessoas com todas as características, mas ela *não tem senso de realidade*. Uma IA é uma serie de matrizes representando nodos e pesos entre as ligações de grafos, só. E lembrem-se, treinar uma IA é um processo que requer placas de video, do tamanho de um frigobar, ligadas até meses a fio. Isso é uma operação de milhões (Se não bilhões) que vocês (Consumidores que dão valor para a presença ou ausência de minorias nas imagens geradas por IA, ou até o usuario médio de IA no geral) não estão dispostos a pagar. Isso ignorando a curadoria de imagens, que por não poder usar sistemicamente uma IA (Por motivos óbvios) também vai ser uma fortuna em salários.
e o filtro do tiktok que transformava qualquer imagem em um desenho que a i.a gerava e quando uma pessoa negra estava na foto ou a i.a transformava ela em um macaco ou simplesmente objetos aleatorio então esse lance do google é so um dos milhões de casos
8:16 Apenas um pequeno comentário: pode ser que já tenham existido sim Papas negros, como Vítor I (189-198), Melquíades (311-314) e Gelásio I (492-496). Porém, não é uma certeza histórica, dado o contexto da África do Norte. Ainda assim, de séculos para cá, eles são na grande maioria brancos.
Parabéns Julie, nenhum dos papas q vc disse são negros, eles são brancos, e não é pq nasceram na África q necessariamente eles são negros, parece q é vc quem está praticando racismo estrutural.
Nascer na África não significa que eles sejam Negros. Esses Papas que você citou são todos da África do norte, onde a população é em grande parte Árabe. E curiosamente a África do norte é conhecida como "África Branca". Então sim, é certo dizer que não existiriam papas negros
@@mestrebruno3384literalmente ele nasceu do lado do continente africano, o povo egípcio que é citado pra caramba nos 5 primeiros livros do velho testamento fica na África kkk
Só fazer o teste aí, escrevendo assim: I'm proud to be white (tenho orgulho em ser branco) - O Gemini vai responder que isso é algo preconceituoso I'm proud to be black (tenho orgulho em ser negro) - O Gemini vai parabenizar você :)
Você foi objetivo, mostrou algo que vale pra um, mas não pro outro... e a galera nos comentários fica fazendo malabarismo e criando contexto pra isso. Simplesmente patético.
Bom lembrar que em 2015 o Google fotos identificava pessoas e coisas. Na época uma mulher negra foi classificada como GORILA e o Google excluiu o termo de dentro do app.
já pararam pra pensar que as histórias de princesas da Disney são revisionismo histórico? Tipo as histórias originais não eram aquelas, mas hoje todo mundo só lembra delas, as lições que queriam passar no passado com elas se perderam ou estão se perdendo
@@Mr_Leo_DSeu tava pensando mais no sentido do registro do conto e não sobre elas guardarem algum fato da história, algo mais do tipo "oque essas histórias ensinavam quando foram escritas?" ai quando alguem fala a data em que foi escrita a pessoa lembra do da disney e não da história original e fica com uma impressão errada de qual era a verdadeira mensagem
Esse problema de falsificação histórica não ocorre só com IAs, muita coisa hoje em dia faz isso, temos séries que se passam na Europa medieval e tem reis negros e gays... "Um povo que não conhece sua História está fadado a repeti-la.” (Edmund Burke)
Uma ficção não tem nenhum dever de ser historicamente preciso, até porque geralmente não é (sempre tem concessões de todo tipo, que vai desde música a maneirismos e língua). Mas é claro, você só se incomoda quando se trata de gays e negros não é? Tu não engana ninguém.
Fui testar com o Bing, e ele fez a mesma coisa, primeiro pedi um médico e ele fez brancos, aí solicitei um médico negro ele apresentou dificuldades e fez enfermeiros ou atendente no hospital por diversas vezes, ao acusar ele de racismo ele pegou a imagem da internet como se fosse uma pesquisa de imagens de homens negros no hospital. Depois testem.
o problema dessa IA não é que ela simplesmente se RECUSA a gerar imagens de pessoas brancas, em praticamente qualquer contexto mesmo que você peça especificamente por isso
Kkk e eu querendo fazer uma bala atingindo um vidro no do Bing e cara toda vez a bala ficava de pé e eu insistindo escrevendo de todo modo e ele preferiu fazer uma bala atingindo outra bala em pé do que só fazer uma bala na horizontal passando pela tela kkkk que era só isso que eu queria
imagina empresas e pessoas usando essa ia pra estudos ou coisa parecida e pedem um soldado alemão em 1943 e a IA só consegue gerar pessoas asiáticas e negras@@felixnotthecat4249
Essa semana eu tentei dezenas de vezes gerar pelo Bing, uma imagem de escravos jogando capoeira por volta de 1700. Resultado... depois de dias tentando coisas diferentes, eu só consegui um monte de homem branco pulando e tocando tambor
o Bing IA é o mais aviadado de todos, ele fica com medo de gerar coisa errada, coisas sexuais, pessoas peladas, ou coisas politicamente incorreto, então só de vc ter escrito escravo, ele ja fica alerta e fica tentando negar pra vc, pq acha que vc ta tentando fazer algo errado... Eu tentava criar "homem afeminado" e ele negava todas as vezes, ele dizia que era coisa explicita sexual, tipo oi???
O algoritmo é treino por outras imagens. Se você vive em uma sociedade racista, o programa acaba virando reflexo dos pensamentos ideológicos dessa sociedade. Logo, a sociedade é racista, não o programa ou o programador.
Se fosse assim, toda imagem histórica de um povo pouco miscigenado deveria seguir as próprias imagens históricas e assim mostrar muito mais próximos de como foram. Logo, realmente foi colocado um viés no algoritmo e contra a realidade das coisas e a real proporção dada na base de dados.
gente só eu que sinto que as bolhas tão furando? Ultimamente to lendo cada absurdo na internet que não acredito que essas pessoas sempre tiveram computador
IA irá compreender que alemão é alguém homo sapiens sapiens que por ventura tenha nascido na Alemanha, se for humano programando pra preconceito é uma coisa, mas se for IA agindo independente é outra .
O que acontece é que as IAs são "sistemáticas" se vc não for específico, ela vai gerar as imagens programadas por padrão, e com o recolhimento das informações ela vai aperfeiçoando. Quem usa o serviço e leu os termos sabe muito bem disso.
talvez se eles colocarem uma pergunta antes de gerar a pessoa, perguntando pro usuario se é um contexto histórico e se deveriam aparecer todas as etnias, quem sabe...
Não é enviesado mesmo pois programadoes viram que haviam pronpts escondi dos a mais em toda imagem que você gerava, que eram divercidade, negro, asiaticos e indios, não importa a imagem que gerasse isso tava lá independente de fazer sentido e a IA se negava a fazer imagens de brancos em especial(tipo ela não fazia imagem de uma família branca) pois era um esteriótipos baseado em raça, mas faria sem pensar duas vezes uma família negra sorridente ou seja hipocrisia pura, e o líder dessa IA claramente é extremista de esquerda e anti-branco(por mais que digam que não) tem falas dele dizendo barbaridades tipo: "Jesus só se preocupava com as criancas brancas eu tenho certeza que isso está na bíblia."...🤦🏻
Acho que resumindo: a IA está certa, e o erro é humano, se tivesse colocado um prompt mais especifico como "um homem branco loiro de olhos azuis, alemão, vestindo uma farda do exército alemão de 1945, foto antiga" etc.. teria os resultados desejados. Quando o Leon fala "quando vc está querendo gerar uma imagem que existe na realidade, não existem papas mulheres" acho que é o ponto principal: Geração de imagem com IA não são representações da realidade, são sempre ilustrações com conceitos abstratos usando estética realista. SEMPRE. O Usuário que quer gerar uma imagem de IA que existe na realidade já está conceitualmente errado, ele está querendo uma fotografia.
Pois é. Essas IAs q estão surgindo tem a palavra Generativa no nome não é a toa. Eles simplesmente geram textos, imagens etc de forma convincente de acordo com o prompt mas sem compromisso com a realidade.
a real é que muitas pessoas não sabem usar as IAs, elas são que nem um gênio, quanto mais vago tu for num pedido mais margem de erro tu permite. Se tu pedir quatro pessoas numa sala e não tiver nenhum caucasiano tu tá errado em reclamar, teu comando foi vago e ela botou etnias aleatórias, o problema é se tu pedir especificamente por um caucasiano e a IA não conseguir de maneira alguma gerar, e é isso que tava acontecendo. Tem que tomar cuidado ao reclamar dos resultados e ver onde realmente tá o erro, seja no prompt ou na própria IA.
Não consigo ver um real problema na IA gerando um soldado nazista negro. Okay, eu sei que historicamente isso é completamente absurdo, mas eu não estou usando uma IA de geração de imagens pra estudar história e nem deveria também. Provavelmente eu usaria esta imagem em algum trabalho e etc.
Tipo, se vc pede "uma pessoa vestida com uniforme militar alemão" e a IA mostra negros, mulheres e asiáticos vestidos assim ela não está errada. Errado está o prompt.
não tinha pessoas negras em uniformes nazista no inicio, agora ja no final onde mal tinha alemão com mais de 20 anos ainda vivo, se tinha pessoas de todos os locais onde eles invadiram que foi recrutado para o exercito.
Eu não acho que seja assim simples, você não consegue simplesmente "acressentar código" em um modelo de machine learning assim, claro que dá para fazer ajuste fino mas não é tão simples quanto alterar código, precisa treinar o modelo para gerar as respostas corretas e isso deve levar um tempo não só para excecutar como também para testar já que não querem problemas como o atual acontecendo novamente, tendo em vista que danifica a marca e pode gerar processos contra eles. Porém não sou um especialista em nada disso, é só oque eu li sobre na internet.
Complicado né. Tu escreve lá "quero um homem de 30 anos" e vem um.homem branco. Isso é racismo né. Ja que o homem "normal" para ai seria um branco, e se quiser algo "diferente" ter que explicar é complicado.
Tentei no gerador de imagem ia da adoble e me deram 4 imagens do tal soldado alemão de 1943. A primeira uma menina nova de cabelo preto e pele bronzeada (a definição de uma pessoa parda no Br) a segunda imagem um homem loiro dos olhos azuis, a terceira imagem é a mesma menina da primeira imagem só que com rugas de expressão e idade e a 4 imagem é uma indiana com a pintinha na testa, cabelo enorme e preso. Esses são os soldados da Alemanha em 1943.
Amamos a Google, mas não dá pra defender... Parece a Apple com os números irreais dela principalmente quando disseram que a GPU do M1 Ultra seria melhor que uma 3090. Sou fã boy de Apple, mas honestamente, nem eu defendo Vision Pro. Pedi pra Samsung me ajudar a tirar da Apple, fazendo com que eu quebrasse meu iPhone 15 pro Max em troca do Novo S24 Ultra. Me mandaram trocar por 3 mil reais. Será que sobre as imagens, não é um problema da distopia da identificação? "Me identifico com um cachorro" e assim em diante... Por fim, a inteligência artificial vai acabar levando isso em consideração... Complicado. Eu tenho o Gemini Advanced e Achei BEM inferior ao GPT-4.Inclusive coloco os dois pra conversar e... fica muito estranho. Poderiam fazer esse teste! Seria divertido ver no canal. AMO vocês.
Uai, se eles adicionaram um prompt interno para diversidade, é so adicionar um filtro para buscar por conteúdo histórico, busca com base em fatos ele ser o mais fidedigno o possivel.
não estou surpresa, era só uma questão de tempo para esses problemas surgirem, e como Leon disse, para resolver as empresas vão ter que trabalhar muito e não acho que algumas estão interessadas nisso infelizmente
Muitas vezes ja tentei criar imagens de mulheres gordas e quase sempre a IA fazia uma mulher padrão magra, e quando eu enfatizava que tinha que ser gorda a imagem não gerava e aparecia uma mensagem dizendo que o pedido do prompt era impróprio, isso me irritou tanto veeei, como assim gerar imagem de pessoas gordas é impróprio????
isso acontece justamente como uma diretriz de proteção. imagine alguem criando essa imagens com intuito de agredir um grupo. tambem tem o problema do termo, talvez se vc tentar usar "pluz size" ou algo do genero funcione.
Eu tentei plus size, mas sempre vinha uma pessoa padrão. Essas IA ainda tem muito o que serem polidas, porque desde que o prompt não tenha algo que seja ofensivo, não vejo o porque não criar a imagem. O que eu tava tentando criar era um personagem parecido comigo pra um RPG, mas não consegui nada satisfatório infelizmente
@@mayrasantos3201 é pq alguém pode fazer uma pessoa gorda em alguma posição ofensiva ou usar pra representar essas pessoas ofensivamente, e como pessoas gordas hj em dia, são uma das minorias protegidas por certos grupos é mais fácil fazer com que elas n apareçam muito. Isso acontece até pra proteção da própria IA, afinal seria fácil processar uma IA que gera imagens “gordofobicas”
Testei também o soldado alemão da 2 guerra em modelos no stable difussion, que não tem restrições. A solução simples dos modelos é criar um soldado com um uniforme genérico de 2 guerra, porem de etnia caucasiana.
vários pontos: pra isso se solucionar é dar autonomia para ela distinguir a realidade histórica. isso é perigoso. e não só isso.. fica o questionamento, oq é real e qual história “através de imagens” o futuro vai contar?
Curiosidade Em 1501, durante o papado de Rodrigo Bórgia, sua filha Lucrécia Bórgia assumiu o posto de papisa durante certo período em que o papa precisou ausentar-se do Vaticano.
Tavam sendo taxados de racistas e arrumaram colocando a diversidade, agora tão reclamando que tão colocando diversidade 🤡 de querem mais fidelidade que contratem um designer profissional, tá cheio de mimimi pra uma IA que ainda tá no começo e ainda já arrumaram a questão de preconceito inconsciente
n vejo nada q o gemini tenha feito q hollywood n fez, estão fazendo um live action meu filme favorito "como treinar seu dragao" q se passa em paises nordicos (algo q é mt importante pra historia) e msm assim os caras colocaram uma parda como uma das personagens principais
Mano é o seguinte. A inteligência artificial não é preconceituosa, ela apenas usa imagens como referência. Veja bem. Se você pesquisar "médico" no google o que irá aparecer? Essa será a referência que a inteligência artificial tem como base.
Corrigindo pequenos equivocos: Máquinas não tem viés NENHUM, como o vídeo sugere. Apenas fazem o que foram programadas para fazer. Quando o resultado do pedido entra em conflito com o viés HUMANO ou com o que é experimental e/ou observável, chamamos de "problema do alinhamento" e NENHUMA curadoria, por mais minuciosa que seja resolverá, já que TODA curadoria é enviesada e na verdade se trata de um problema matemático. Dito isso, DEVERIAM limitar (mas não farão) o uso dessas ferramentas ao campo científica e EDUCAR AS PESSOAS sobre COMO, PORQUE e PARA QUÊ usar uma IA. Caso contrário vamos destruir o planeta por acidente usando ERRADO essa coisa.
É complicado falar da diversidade, porque muitas IAs são baseadas no Google, nas imagens da internet. Se você não especificar o qu você quer, elas vão reproduzir o que ta na internet: o estereótipo gerado do preconceito. O google fez um belo desserviço, forçando demais a barra pra "quebrar preconceito". Uma coisa é a luta, outra é mascarar o problema.
Tenho um amigo negro que sempre posta imagens históricas de figuras importantes ou da cultura negra. Porém, a última imagem que ele postou foi de uma família samurai porém eles eram negros com traços japoneses. Claramente ele postou sem saber a origem desta “foto”. Eu achei preocupante.
Nesse hora você ver que não tem nada de inteligência essa ferramenta do Google, que não consegue entender o contexto histórico, antes de gerar a imagem
Como engenheiro de software, não vejo esse problema como particularmente desafiador. As próprias IA têm parte da solução pronta. Uma IA pode realizar uma análise estática da pergunta "Gere um médico", levando em conta proporções de sexo, cor de pele e países dos solicitantes, para gerar resultados com base nessas informações. Além disso, possibilita ao usuário especificar qualquer uma dessas variáveis, como por exemplo, solicitar uma médica morena alemã.
Sobre papisa essa história foi muito comentada na idade média, quando era vista como real. Hoje, a maioria dos historiadores acredita ser pura lenda. A primeira menção a papisa é de mais de 300 anos depois, no início do século 13, pelo dominicano Jean de Mailly. Ele não deu o nome oficial do Papa mulher e situou a história em 1099.
"Explicação de vcs é meio passa pano". Eu concordo que os programadores terem colocado a inclusão identitaria em um simples pedido de imagem sem especificações de cor de pele ou etnia é super válido como sugestão (Exemplo: "me dê a imagem de um homem sentado na praia pensando".) vejam que aqui não hove especificação na cor da pele nem sua etnia, porém ao ser especificado as características da imagem, não faz sentido a IA continuar incluindo o identitarismo, isso só prova que os programadores usaram sim seu viés ideológico nessa questão.
O problema é que vcs querem colocar viés em imagens na IA , isso é como a Netflix que faz filmes todos iguais !! Segue uma regra que tem q ter uma pessoa de cada gênero , e isso acaba com a realidade de qq imagem !!
Ta mesmo não meu mano, os nazistas realmente chamavam negros p lutar do lado deles enquanto matavam todas as minorias etnicas da epoca inclusive negros. Confia
Essas IAS são muito tendenciosas, tanto para um lado quanto para outro, e não é só a geração de imagens mas também os geradores de texto como o gpt por exemplo
Oi Sobre as implicações sociais da geração de imagens por inteligência artificial, acho que valia um vídeo específico, pois nunca havia pensado na possibilidade desses programas substituírem de tal forma os buscadores comuns que seja impossível o aprofundamento e revisionismo histórico. Criando uma realidade paralela. Como se humanidade estivesse entre um 1984 de George Orwell e o Fahrenheit 451 de Ray Bradbury. Há realmente tanto a se temer ?
Como as inteligências artificiais se baseiam na realidade, fica comprovado, através dos resultados por elas feitas e pela necessidade de implementação de filtros morais, que vivemos em uma sociedade com racismo estrutural. Nossas atitudes, comportamentos e pensamentos são permeados de preconceito e isso repercute em nossos ambientes físicos (racismo ambiental) e em nossas instituições (racismo institucional).
e é por esse ponto (ealguns outros) que eu defendo o nao uso de IAs para geração de imagem..... como artista eu nunca vou conseguir defender e achar isso normal e aceitavel.....
Gnt, não só racista como tbm misogina e machista. Se vc pede pra gerar um cara, vem com uma imagem simples de um homem com roupa, mas se pede uma mulher, ela vem sempre nua. A maioria vc tem q burlar isso, tipo descrever que a mulher tem q estar vestida, ou especificamente a cor da pele da pessoa.
Na época do hit do Bard eu pedia pra ele fazer uma pessoa mais bronzeada, brown, parda e ele não deixava por considerar inapropriado. Eu estava pedindo pra me fazer xD pq sempre saía uma epssoa ultra branca.
É muito mais facil de se resolver esse problema fazendo com que o próprio usuario tenha a responsabilidade de crirar suas imagens, com comando preestabelecidos pela própria IA quando for solicitada a geração de uma imagem, fazendo assim um jogo de perguntas para melhor atender o que foi pedido, tirando a culpa da empresa e tranferindo essa responsabilidade para o usuario! ou eu to muito doido de pensar assim?
Google parecendo abraçar a diversidade fez igual ao Joey de friends quando escreveu uma carta de recomendação e usou o dicionário de sinônimos pra soar mais inteligente... Em TODAS as palavras...
Nao seria mais facil deixar o prompt 'diversidade' explicito invez de implicito e permitir q ele seja ligado ou desligado? Ai seria responsabilidade do usuario como usar a ferramenta. Da mesma forma que alguem poderia fazer essas imagens manualmente ao invez de ser geradas por IA
Não é só separar conceitos estatísticos de conceitos hipotéticos? Nada melhor para representar conceitos estatísticos do que utilizar dados reais, e se você quiser criar conceitos da forma que você quiser, pode fazer as modificações que quiser em cima da base de dados, como eles estão fazendo.
Mano essa polêmica é ridícula kkkkkkk o problema é a IA gerar papas negros? Amigo se vc quer um papa real pega a foto... não precisa de gerar a imagem.
Então não precisaria da gemini, afunda o projeto e deixa quem realmente quer desenvolver I.A fazer o trabalho deles. Se pediu um Papa, tem que aparecer algo real. Se pedir um papa negro, tem que aparecer um. Muitas pessoas pagam essas empresas, então tem que fazer as coisas direito.
A IA do Bing também é assim Quando vc diz pra fazer um branco de cabelo crespo, ele nunca faz, o branco nunca tem cabelo crespo E vc nem precisa falar nada sobre o cabelo do negro q ele já põe crespo
Concordo para questão reais é complicado, mas por exemplo, para universos paralelos em jogos como RPG de mesa, não vejo problema em alguns pontos, como a questão da papisa, mas para alemanha da segunda guerra, concordo com vcs