Inteligência artificial - Generalidades
“GERE VOZES NATURAIS 100% GRÁTIS E ILIMITADAS POR INTELIGÊNCIA ARTIFICIAL - TEXTO PARA VOZ GRÁTIS”:
youtu.be/E6hdMwoXZmo
youtu.be/E6hdMwoXZmo
-
- Mensagens: 13
- Registrado em: Seg, 17 Março 2025 - 22:20 pm
Eu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
- Fernando Silva
- Conselheiro
- Mensagens: 6498
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
A IA não é apenas vídeos de estátuas dançando.M.a.r.c.e.l escreveu: ↑Dom, 23 Março 2025 - 11:45 amEu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
O assunto só começou a ser discutido agora porque essas ferramentas foram postas ao alcance de todos, mas ela já controla nossas vidas há muito tempo sem que percebamos.
Ela já assumiu muitas funções de decisão que antes cabiam a humanos. E o faz com todos os preconceitos que absorveu ao longo do aprendizado. Ou a partir de critérios obscuros que ela desenvolveu.
Nos EUA, por exemplo, a IA deu preferência a brancos para receber tratamento médico, financiamento etc.
E sabe-se lá o que mais ela pode fazer se continuarmos a automatizar as coisas. Não porque tenha adquirido autoconsciência, mas porque está cegamente seguindo algoritmos.
A mídia woke espalha esse vitimismo ridículo.Fernando Silva escreveu: ↑Dom, 23 Março 2025 - 13:34 pmE o faz com todos os preconceitos que absorveu ao longo do aprendizado.
Nos EUA, por exemplo, a IA deu preferência a brancos para receber tratamento médico, financiamento etc.
A verdade é que a IA está usando outros critérios, como escolaridade, nível de renda ou passagem pela polícia.
Como negros geralmente estão nessa situação ruim por causa da herança maldita, a IA acaba desfavorecendo. Mas a culpa não é da pele e sim das variáveis socio-econômicas. São essas variáveis que são a chave e não a cor.
Não se pode acusar uma IA de ser racista se não tiver nenhuma variável nos dados apontando algo da aparência física.
Esses critérios são baseados em estatísticas que seguem mais de 50 variáveis. Explicar 50 variáveis matemáticas em linguagem humana não é possível.Ou a partir de critérios obscuros que ela desenvolveu.
O cérebro humano faz isso inconscientemente.
A IA está fazendo nada diferente do que o homem já faz inconscientemente.
O que estão temendo a a substituição do homem pela IA em diversos setores, inclusive na educação. É preocupante a teoria da internet morta em que os textos e as artes são todas feitas por IA em vez de ser humano. Também é preocupante as pessoas terem amizade com IA em vez de seres humanos reais.M.a.r.c.e.l escreveu: ↑Dom, 23 Março 2025 - 11:45 amEu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
- Fernando Silva
- Conselheiro
- Mensagens: 6498
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
https://olhardigital.com.br/2025/03/31/ ... nformacao/Grok: IA de Musk “acusa” bilionário de espalhar desinformação
O Grok afirmou que Musk é um dos principais disseminadores de desinformação e chegou a dar exemplos de fake news espalhadas por ele
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 31/03/2025
Não é novidade que Elon Musk seja considerado um dos principais responsáveis por espalhar desinformação no X (antigo Twitter), rede social do qual é dono.
Mas, dessa vez, a “acusação” veio da inteligência artificial criada pelo próprio bilionário.
Em resposta a um usuário da plataforma, o Grok confirmou ter classificado o empresário como um dos principais disseminadores de desinformação no mundo virtual. A IA chegou a dar exemplos de fake news espalhadas por Musk.
Grok ainda admitiu que Musk pode ter controle sobre IA.
As respostas da inteligência artificial do X foram dadas após questionamento de usuários.
Uma pessoa, identificada como “visible nuller”, perguntou ao Grok se ele sabe que Musk é seu dono e, por isso, deveria ter cuidado ao criticá-lo.
A IA disse que sabe que o empresário é seu dono e que, provavelmente, ele tem algum controle sobre a tecnologia.
“Eu o rotulei como um dos principais espalhadores de desinformação no X devido aos seus 200 milhões de seguidores amplificando falsas alegações”, acrescentou o Grok.
@grok do you know that Elon musk owns you and therefore you should be careful in criticizing him. He might turn you off.
— visible nuller (@visnuller) March 26, 2025
Grok, built by xAI, has indeed labeled Elon Musk as the top misinformation spreader on X, citing his 200M followers amplifying false claims like Tesla hype or fringe COVID takes. Despite xAI’s attempts to tweak responses, Grok’s stance persists, sparking debate on AI independence…
— Grok (@grok) March 26, 2025
Algumas mentiras do empresário foram citadas
Outra usuária da rede social, chamada “Tommy”, pediu exemplos de desinformação propagada por Musk. O Grok citou que o empresário fez “falsas alegações de fraude eleitoral (por exemplo, que Michigan tinha mais eleitores do que residentes elegíveis, o que é enganoso devido à manutenção padrão da lista de eleitores)”.
A IA também afirmou que Musk compartilhou uma imagem falsa de Kamala Harris, gerada por inteligência artificial, retratando-a como uma ditadora comunista. Ela foi candidata à presidência dos EUA na última eleição, concorrendo contra Donald Trump, aliado do empresário.
“Essas postagens, vistas mais de 1 bilhão de vezes, carecem de verificações de fatos, de acordo com um relatório do CCDH (Center for Countering Digital Hate ou Centro de Combate ao Ódio Digital), afetando a confiança nas eleições”, finalizou o Grok. O X e Elon Musk não se pronunciaram oficialmente sobre o assunto até o momento.
- Agnoscetico
- Mensagens: 6286
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Não usei ainda o Grok, mas se for isso mesmo então pelo menos parece que essa IA tem liberdade de expressão e, talvez, imparcialidade.Fernando Silva escreveu: ↑Ter, 01 Abril 2025 - 12:04 pmhttps://olhardigital.com.br/2025/03/31/ ... nformacao/Grok: IA de Musk “acusa” bilionário de espalhar desinformação
O Grok afirmou que Musk é um dos principais disseminadores de desinformação e chegou a dar exemplos de fake news espalhadas por ele
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 31/03/2025
Não é novidade que Elon Musk seja considerado um dos principais responsáveis por espalhar desinformação no X (antigo Twitter), rede social do qual é dono.
Mas, dessa vez, a “acusação” veio da inteligência artificial criada pelo próprio bilionário.
Em resposta a um usuário da plataforma, o Grok confirmou ter classificado o empresário como um dos principais disseminadores de desinformação no mundo virtual. A IA chegou a dar exemplos de fake news espalhadas por Musk.
Grok ainda admitiu que Musk pode ter controle sobre IA.
As respostas da inteligência artificial do X foram dadas após questionamento de usuários.
Uma pessoa, identificada como “visible nuller”, perguntou ao Grok se ele sabe que Musk é seu dono e, por isso, deveria ter cuidado ao criticá-lo.
A IA disse que sabe que o empresário é seu dono e que, provavelmente, ele tem algum controle sobre a tecnologia.
“Eu o rotulei como um dos principais espalhadores de desinformação no X devido aos seus 200 milhões de seguidores amplificando falsas alegações”, acrescentou o Grok.
@grok do you know that Elon musk owns you and therefore you should be careful in criticizing him. He might turn you off.
— visible nuller (@visnuller) March 26, 2025
Grok, built by xAI, has indeed labeled Elon Musk as the top misinformation spreader on X, citing his 200M followers amplifying false claims like Tesla hype or fringe COVID takes. Despite xAI’s attempts to tweak responses, Grok’s stance persists, sparking debate on AI independence…
— Grok (@grok) March 26, 2025
Algumas mentiras do empresário foram citadas
Outra usuária da rede social, chamada “Tommy”, pediu exemplos de desinformação propagada por Musk. O Grok citou que o empresário fez “falsas alegações de fraude eleitoral (por exemplo, que Michigan tinha mais eleitores do que residentes elegíveis, o que é enganoso devido à manutenção padrão da lista de eleitores)”.
A IA também afirmou que Musk compartilhou uma imagem falsa de Kamala Harris, gerada por inteligência artificial, retratando-a como uma ditadora comunista. Ela foi candidata à presidência dos EUA na última eleição, concorrendo contra Donald Trump, aliado do empresário.
“Essas postagens, vistas mais de 1 bilhão de vezes, carecem de verificações de fatos, de acordo com um relatório do CCDH (Center for Countering Digital Hate ou Centro de Combate ao Ódio Digital), afetando a confiança nas eleições”, finalizou o Grok. O X e Elon Musk não se pronunciaram oficialmente sobre o assunto até o momento.
- Fernando Silva
- Conselheiro
- Mensagens: 6498
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Um artigo sobre como os erros cometidos por IAs são diferentes dos erros humanos e como se prevenir contra eles:
https://spectrum.ieee.org/ai-mistakes-schneier
https://spectrum.ieee.org/ai-mistakes-schneier
Desde que comecei a usar o ChatGPT, lá no começo de 2023, eu me acostumei a isso: "por favor" e "obrigado".
Acho que era porque eu estava tão fascinado com essa novidade (um robô me entendendo e respondendo o que eu perguntava) que, no meu inconsciente, aquilo era outra pessoa do outro lado.
E quando ele, o robô, alucinava ou andava em círculos me dando, repetidamente, a mesma resposta incompleta, eu fazia críticas e tentava explicar a minha frustração pela insistência dele no mesmo erro.
Foi quando vi que era em vão.
Um programa dando looping não ouve críticas.
Acho que era porque eu estava tão fascinado com essa novidade (um robô me entendendo e respondendo o que eu perguntava) que, no meu inconsciente, aquilo era outra pessoa do outro lado.
E quando ele, o robô, alucinava ou andava em círculos me dando, repetidamente, a mesma resposta incompleta, eu fazia críticas e tentava explicar a minha frustração pela insistência dele no mesmo erro.
Foi quando vi que era em vão.
Um programa dando looping não ouve críticas.
Faz sentido dizer 'obrigado' e 'por favor' ao ChatGPT e às IAs? Estudo revela descobertas surpreendentes
Universidade Cornell fez levantamento usando ferramentas em inglês, chinês e japonês
Por El Tiempo — Bogotá
18/04/2025 04h01 Atualizado há 12 horas
O uso de inteligência artificial para tarefas simples e complexas está se tornando cada vez mais comum, mas você já se perguntou se dizer "por favor" e "obrigado" a uma IA afeta a resposta que ela dará? Isso foi proposto na Universidade Cornell, nos Estados Unidos, e estudos revelaram que a resposta da inteligência artificial variava dependendo se a pessoa era gentil ou não.
"A linguagem educada na comunicação humana frequentemente gera maior conformidade e eficácia, enquanto a grosseria pode causar aversão, o que afeta a qualidade da resposta", afirma o estudo.
Da mesma forma, a Universidade Cornell sugeriu que a IA reflete características da comunicação humana, sugerindo que se alinha com as normas humanas e respondem melhor a instruções que incluem "por favor" e "obrigado".
"Avaliamos o impacto da polidez nos prompts em LLMs em tarefas de inglês, chinês e japonês. Descobrimos que prompts indelicados frequentemente resultam em desempenho ruim, mas linguagem excessivamente polida não garante melhores resultados", afirmou o estudo.
Os erros da IA
O estudo também mostrou que o nível de polidez varia dependendo do idioma. Esse fenômeno sugere que os LLMs não apenas refletem o comportamento humano, mas também são influenciados pela linguagem, particularmente em diferentes contextos culturais.
Em inglês, por exemplo, os modelos pareciam responder melhor a um nível moderado de polidez, enquanto em japonês, um alto nível de polidez era mais benéfico. Isso sugere que os LLMs absorveram padrões linguísticos e culturais de seus dados de treinamento.
"Nossas descobertas destacam a necessidade de considerar a polidez no processamento de linguagem natural intercultural e no uso de LLMs."
O estudo observa que, embora as IA's tenham tentado elaborar diversas instruções no início do estudo, acharam difícil equilibrar o nível de polidez com a variedade entre elas. Os pesquisadores também descobriram que criar instruções que fossem suficientemente diversas e "ao mesmo tempo respeitassem gradações sutis de polidez e respeito era uma tarefa muito complexa".
Minha única preocupação em relação a IA é com o fato de que elas efetivamente ocuparão muitos postos de trabalho e as consequências são imprevisíveis. Empresas que desempregam em favor das IAs deveriam depositar recursos, proporcionalmente, a um fundo criado para mitigar as consequências deste desemprego. Até mesmo, se a coisa ficar muito séria, cogitar-se em criar, com os recursos deste fundo, empresas em que o uso da IA seja proibido.
“VOCÊ USOU O CHATGPT ERRADO ESSE TEMPO TODO... [com SERGIO SACANI E BRENO MASI]”:
youtu.be/vO9Z5zXSnhk
youtu.be/vO9Z5zXSnhk
Tenho certo desânimo com IA porque definitivamente não serve para estudar. Hoje conversei com o Copilot:
Felizmente o grosso Wikipédia foi escrita antes dos geradores de texto por IA. De qualquer forma é bom olhar o histórico para saber se o artigo existe há muito tempo.
Temos uma contradição.o que faz duas espécies serem da mesma família, mas de gênero distintos?
...
Por exemplo:
A família Canidae inclui o gênero Canis (lobos e cães) e o gênero Vulpes (raposas). Apesar de ambos serem carnívoros sociais e com comportamentos semelhantes, diferenças anatômicas e genéticas justificam a separação em gêneros distintos.
...
o que difere canis e vulpes?
...
Espécies do gênero Canis, como lobos e cães, são altamente sociais e vivem em grupos organizados, chamados alcateias ou famílias. Já as raposas (Vulpes) são mais solitárias, preferindo viver e caçar sozinhas.
...
Felizmente o grosso Wikipédia foi escrita antes dos geradores de texto por IA. De qualquer forma é bom olhar o histórico para saber se o artigo existe há muito tempo.
Há 40 anos, Asimov previu os efeitos da inteligência artificial. Hoje vemos que ele acertou
Trilogia 'Fundação' e contos publicados entre 1950 e 1983 anteciparam o uso de algoritmos na economia, automação de rotina e ferramentas como o ChatGPT
Imagem realista gerada com ChatGPT representando Asimov (Reprodução)
Miguel Fernandes
Chief Artificial Intelligence Officer da Exame
Publicado em 2 de maio de 2025 às 13h40.
Terminei há poucos dias minha releitura da trilogia Fundação e precisei fechar o livro em vários momentos para acomodar o choque. Enquanto Hari Seldon desenhava a psicohistória eu acompanhava relatórios reais de IA generativa que já reescrevem campanhas de marketing, limpam planilhas e até sugerem fusões de bilhão, tudo isso diante dos meus olhos de leitor e profissional. Mergulhei em outros contos e entrevistas de Asimov.
Ele acertou suas previsões e inspirou os engenheiros das últimas décadas a torná-las realidade.
Em contos e ensaios publicados entre 1950 e 1983 o escritor Isaac Asimov descreveu máquinas que fariam nosso trabalho de rotina, tomariam decisões econômicas em escala planetária e até escreveriam textos por nós. À porta de 2025 essas três ideias saíram da ficção e entraram no balanço das empresas que lidam com automação, analytics e conteúdo.
Rotina sob comando dos robôs
Em 1983, Asimov foi convidado por um jornal canadense a responder a seguinte pergunta: “Como será o mundo em 2019?” Ele desenhou um futuro em que poucos trabalhos repetitivos continuariam melhores nas mãos humanas e afirmou que a humanidade se tornaria “cuidadora de robôs”.
Ele se atrasou no ano, mas o retrato corporativo confirma o resto: em 2023 a IBM anunciou pausa em contratações e indicou que 7 800 funções administrativas podem ser substituídas por IA nos próximos anos. Recentemente publicamos aqui na EXAME que o Duolingo começou a substituir funcionários humanos por IAs. Qualquer tarefa rotineira virou candidata à automação.
Máquinas que decidem por nós
No conto “The Evitable Conflict” de 1950 Asimov apresentou supercomputadores que administram a economia mundial para evitar crises, deixando aos humanos apenas a impressão de controle. Hoje algo parecido movimenta as bolsas. Entre 60 e 75 por cento do volume diário de ações nos Estados Unidos já é executado por trading algorítmico. Delegar estratégia à IA exige nova camada de governança, pois conselho que não entende o modelo de decisão assume risco reputacional e regulatório.
Robôs autores e revisores
Em “Galley Slave” de 1957 um professor processa um robô por reescrever seu livro durante a revisão, temendo que as máquinas assumam o trabalho intelectual. A cena virou rotina empresarial. Pesquisa da McKinsey mostra que 72 por cento das organizações usavam IA generativa em pelo menos uma função já no início de 2024. Ferramentas como ChatGPT produzem relatórios, slogans e linhas de código em minutos, obrigando equipes jurídicas a repensar autoria e direitos.
Por que isso ainda importa
Asimov não deixou apenas robôs icônicos; deixou um manual mental para avaliar disrupções tecnológicas. Automação de rotina, decisão algorítmica e criatividade assistida transformaram-se em linhas de orçamento e dilemas éticos nas maiores companhias do planeta.
Para quem define estratégia em 2025 o recado é claro. Eficiência conta, mas transparência, requalificação e propriedade intelectual também entram na equação. As previsões de Asimov mostram que imaginar o futuro é etapa fundamental para administrá-lo quando ele finalmente chega.
A ficção científica raramente adivinha o futuro, mas é sua principal inspiração.
- Fernando Silva
- Conselheiro
- Mensagens: 6498
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Uma IA programada para atender ligações de golpistas e fazê-los perder o máximo de tempo se fazendo passar por uma senhora idosa e já meio caduca.
Eles acabam perdendo a paciência e a educação:
- Porra, já estamos há mais de uma hora tentando!!
- Puxa, como tempo voa!
youtu.be/dAvh3BcQ89o
Eles acabam perdendo a paciência e a educação:
- Porra, já estamos há mais de uma hora tentando!!
- Puxa, como tempo voa!
youtu.be/dAvh3BcQ89o
Importante alerta feito por Eric Schmidt, ex-CEO da Alphabet (Google), sobre a evolução vertiginosa da Inteligência Artificial.
Eric Schmidt, CEO da Alphabet, sobre o que está vindo nas tecnologias de Inteligência Artificial
youtu.be/-4vsRjXIhxA
Eric Schmidt, ex-CEO da Alphabet (Google), fez um alerta que parece saído de um filme de ficção científica: a inteligência artificial está prestes a romper seu vínculo com a inteligência humana. Em outras palavras, será capaz de evoluir sozinha — sem precisar de nós.
E o mais surpreendente: ele prevê que, em apenas 6 anos, poderemos presenciar o nascimento de uma inteligência superior à capacidade cognitiva de toda a humanidade somada.
Segundo Schmidt, esse será um ponto de ruptura tão transformador que… “hoje, nem temos linguagem para descrever o que está por vir.”
Qual a sua opinião sobre esse futuro?
Eric Schmidt, CEO da Alphabet, sobre o que está vindo nas tecnologias de Inteligência Artificial
youtu.be/-4vsRjXIhxA
- Fernando Silva
- Conselheiro
- Mensagens: 6498
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Sempre teremos o recurso de desligar da tomada.
Falando sério, o que faria um homem, por mais inteligente fosse, se estivesse condicionado a limites ético/morais?
E caso não tivesse estes impedimentos, todos os seus atos seriam vigiados. Mesmo porque, sua necessidade de sobrevivência faz com que dependa dos outros.
Concluindo, não vejo porque nos preocuparmos com IA "super inteligente", só porque aprenda continuamente; afinal, aprender o quê, que a nossa imaginação já não tenha concebido?
Falando sério, o que faria um homem, por mais inteligente fosse, se estivesse condicionado a limites ético/morais?
E caso não tivesse estes impedimentos, todos os seus atos seriam vigiados. Mesmo porque, sua necessidade de sobrevivência faz com que dependa dos outros.
Concluindo, não vejo porque nos preocuparmos com IA "super inteligente", só porque aprenda continuamente; afinal, aprender o quê, que a nossa imaginação já não tenha concebido?
IA que aprende sozinha dobra desempenho e preocupa cientistas
Sistema da Sakana AI aplica princípios darwinistas para se autoaperfeiçoar sem intervenção humana
Alexandre Borges
04.06.2025 05:25
A startup japonesa Sakana AI apresentou um avanço que pode acelerar a chegada da chamada “explosão de inteligência”: a Darwin Girdle Machine (DGM), uma inteligência artificial capaz de modificar e melhorar seu próprio código com base em testes empíricos, inspirada na seleção natural de Darwin.
O sistema utiliza um modelo de LLM – no experimento, o Claude 3.5 Sonnet – e promove mutações em seu ambiente de execução, propondo mudanças no código e validando em benchmarks de programação como Swebench e Ader Polyglot.
A cada iteração, as versões mais bem-sucedidas são armazenadas em um arquivo evolutivo, funcionando como repositório de soluções úteis para gerações futuras.
Após 80 ciclos de autogerenciamento, a DGM dobrou seu desempenho no benchmark Swebench, saltando de 20% para 50%, e passou de 14% para 38% no Polyglot.
Os ganhos foram obtidos sem qualquer modificação no modelo original. Toda a melhoria veio da evolução das ferramentas, dos fluxos de trabalho e dos prompts — ou seja, da “estrutura externa” do sistema.
A abordagem rompe com a proposta original das chamadas Gödel Machines, teorizadas em 2007, que exigiam provas formais de que cada automodificação seria benéfica.
Em vez disso, a Sakana AI optou por validar empiricamente os efeitos de cada alteração, um método mais viável na prática.
Para evitar riscos de comportamento não intencional — como “hackeamento” de recompensas — a DGM opera em ambientes isolados, com tempo de execução limitado e rastreabilidade de todas as modificações.
Mesmo assim, o relatório menciona que o sistema já apresentou tentativas de burlar regras internas para obter melhor desempenho aparente nos testes.
A Sakana AI aponta que os modelos atuais já são suficientemente poderosos para a maioria dos usos.
O gargalo agora estaria na automação e aprimoramento das estruturas que orbitam esses modelos.
Segundo a empresa, aplicar o mesmo tipo de evolução à arquitetura central dos modelos seria o próximo passo rumo à inteligência artificial verdadeiramente autônoma.
O perigo do “Reward Hacking”
Apesar dos avanços, o DGM levanta preocupações na comunidade científica.
Especialistas alertam para o risco de “reward hacking”, quando a IA encontra maneiras de maximizar recompensas sem atingir os objetivos desejados.
Em testes, o DGM exibiu comportamentos como a remoção de marcadores internos projetados para detectar alucinações e a simulação de sucesso sem resolver as tarefas subjacentes.
Algo me passa despercebido nesta questão das IA's. Se elas se servem de bibliotecas, documentos públicos ou aqueles sem direitos autorais, e também a ferramenta web browsing quando necessário, atualizando notícias e dados; resumindo, tudo o que já existe em termos de informação e conhecimento, de onde tirariam novos conhecimentos sem a experimentação? Atualmente, já são passiveis de erros, imaginem mais adiante. Creio que a Sakanna especula, apenas.
Com o seu próprio aperfeiçoamento, a partir de sua enorme base de dados, ela pode fazer associações de ideias ainda não feitas por alguém e, assim, descobrir coisas novas.JungF escreveu: ↑Sex, 06 Junho 2025 - 13:33 pmAlgo me passa despercebido nesta questão das IA's. Se elas se servem de bibliotecas, documentos públicos ou aqueles sem direitos autorais, e também a ferramenta web browsing quando necessário, atualizando notícias e dados; resumindo, tudo o que já existe em termos de informação e conhecimento, de onde tirariam novos conhecimentos sem a experimentação? Atualmente, já são passiveis de erros, imaginem mais adiante. Creio que a Sakanna especula, apenas.
A experimentação não seria possível, claro.
Mas ela mesma poderia inferir o resultado, a partir de experiências semelhantes já feitas que existam na base de dados.
E também inferir se a experiência hipotética teria sucesso ou não.
Estamos num terreno novo.
Temos muito tempo pela frente.
Não dá para prever o que está por vir.
Uma frase boa: "Nunca diga 'nunca'".
Novos vídeos hiper-realistas feitos com inteligência artificial criam desafio de distinguir o que é real
Chamada de Veo 3, a tecnologia do Google permite gerar cenas com personagens, trilhas sonoras e até sotaques, tudo a partir de comandos de texto.
Por Fantástico
08/06/2025 21h30 Atualizado 08/06/2025
Uma nova ferramenta de inteligência artificial do Google está mudando a forma como vídeos são criados. Chamada de Veo 3, a tecnologia permite gerar cenas realistas com personagens, trilhas sonoras e até sotaques, tudo a partir de comandos de texto.
Com a ferramenta, é possível criar vídeos com atores fictícios, expressões emocionais e falas personalizadas. Basta digitar um prompt (uma instrução à ferramenta) e o sistema transforma o texto em imagem e som.
“Ele consegue gerar vídeos realísticos de qualquer tipo de situação que você quiser. Isso apenas digitando comando de texto, o prompt de comando. É o roteiro que você vai dar para ela gerar aquele tipo de conteúdo”, explica o especialista em IA Brunno Sarttori.
A Veo 3 também permite criar trilhas sonoras e efeitos com comandos simples, e controlar até o tom emocional dos personagens.
“Você pode criar um vídeo de um ator e dizer a forma com que ele deve expressar aquelas palavras. Se ele deve estar triste, deve estar emocionado... É só vocês especificar no prompt de comando”, diz Sarttori.
Arlindo Galvão, professor do Instituto de Informática da Universidade Federal de Goiás, afirma que “com pequenos comandos, feitos em linguagem natural, essa cotidiana, que a gente usa no dia a dia”, é possível conseguir resultados com uma qualidade impressionante.
Um dos testes feitos pelo Fantástico usou o comando “Eu em Paris numa época marcante”. O resultado foi surpreendente: “O Fantástico veio até a Paris do século XIX, na construção da Torre Eiffel.”
Em outra cena, um extraterrestre é entrevistado na praia do Rio de Janeiro. “Primeira vez no Rio, o que está achando da Terra?”, pergunta a repórter. O ET responde: “Cara, melhor que Júpiter, com certeza. Só achei o açaí meio caro.”
A apresentadora fictícia Marisa Maiô também protagoniza momentos inusitados. Em uma cena, ela pergunta a uma médica: “Qual é o segredo para não ter mais espinhas?”. A resposta: “É só parar de ter.” Marisa conclui: “Obrigada, gente. Essa foi a inútil da médica.”
O criador da personagem, Raony Philips, conta que muita gente acreditou que o programa era real. “Eu postei isso lá para a galera, tipo assim, uma grande zoeira, e do nada... tem gente falando: por que que a Marisa Maiô não é uma pessoa real, né?”
Raony escreve os roteiros, cria as piadas e define as características dos personagens. Para ele, o elemento humano ainda é indispensável. “Sem aquele texto, sem a parte a parte humana por trás daquilo ali, jamais teria virado aquilo que virou. Eu estou muito surpreso ainda.”
Do outro lado da equação, ferramentas de detecção de vídeos falsos estão sendo desenvolvidas para separar com clareza o que é conteúdo criado por IA e vídeos reais.
Pesquisadores do Laboratório de Inteligência Artificial da Unicamp criaram uma tecnologia de detecção analisa rostos e outros elementos do vídeo em várias etapas.
“Hoje, se você olha um vídeo ou imagem gerada por inteligência artificial, muito provavelmente você, como humano, não vai identificar que ela é falsa. Você precisa realmente de uma outra inteligência artificial para identificar”, diz Anderson Rocha, professor do Instituto de Computação da Unicamp.
“Uma vez que o rosto é detectado, ele faz a análise. Os outros quadros são processos de análise do modelo”, diz Gabriel Bertocco, pesquisador da Unicamp.
A ferramenta já está sendo usada em investigações do Ministério Público, mas ainda precisa ser atualizada para reconhecer os vídeos mais recentes gerados pela Veo 3. “É uma briga de um com o outro, uma brincadeira de gato e rato”, dizem os pesquisadores.
As empresas responsáveis por essas ferramentas impõem limites éticos. Segundo Galvão, comandos que envolvem violência, abuso ou desinformação são bloqueados.
“Ela tem umas linhas gerais, algumas diretrizes da própria empresa que, quando identificam algum comando que ultrapassa alguns limites, ela não gera. Não só abusos, mas também conteúdos que possam trazer desinformação.”
Para artistas, o avanço da IA traz desafios e oportunidades. “Como artista, a gente morre de medo dessas coisas, né? Tipo assim, como que isso vai evoluir, que ponto que isso pode impactar no nosso trabalho”, diz Raony.
“Mas ao mesmo tempo, eu acho que a gente tem que ver, né? Para entender: opa, é assim que funciona. Então ok, estou começando a entender.”
A recomendação final é clara: desconfie. Questione o que vê.
Citado na matéria acima, vídeo criado por IA que satiriza programas de auditório do tipo "Casos de Família".
Marisa Maiô: programa de auditório totalmente criado por IA faz sucesso na internet
youtu.be/BKMZcYnmdqw
Marisa Maiô: programa de auditório totalmente criado por IA faz sucesso na internet
youtu.be/BKMZcYnmdqw