Inteligência artificial - Generalidades
“GERE VOZES NATURAIS 100% GRÁTIS E ILIMITADAS POR INTELIGÊNCIA ARTIFICIAL - TEXTO PARA VOZ GRÁTIS”:
youtu.be/E6hdMwoXZmo
youtu.be/E6hdMwoXZmo
-
- Mensagens: 13
- Registrado em: Seg, 17 Março 2025 - 22:20 pm
Eu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
- Fernando Silva
- Conselheiro
- Mensagens: 6404
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
A IA não é apenas vídeos de estátuas dançando.M.a.r.c.e.l escreveu: ↑Dom, 23 Março 2025 - 11:45 amEu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
O assunto só começou a ser discutido agora porque essas ferramentas foram postas ao alcance de todos, mas ela já controla nossas vidas há muito tempo sem que percebamos.
Ela já assumiu muitas funções de decisão que antes cabiam a humanos. E o faz com todos os preconceitos que absorveu ao longo do aprendizado. Ou a partir de critérios obscuros que ela desenvolveu.
Nos EUA, por exemplo, a IA deu preferência a brancos para receber tratamento médico, financiamento etc.
E sabe-se lá o que mais ela pode fazer se continuarmos a automatizar as coisas. Não porque tenha adquirido autoconsciência, mas porque está cegamente seguindo algoritmos.
A mídia woke espalha esse vitimismo ridículo.Fernando Silva escreveu: ↑Dom, 23 Março 2025 - 13:34 pmE o faz com todos os preconceitos que absorveu ao longo do aprendizado.
Nos EUA, por exemplo, a IA deu preferência a brancos para receber tratamento médico, financiamento etc.
A verdade é que a IA está usando outros critérios, como escolaridade, nível de renda ou passagem pela polícia.
Como negros geralmente estão nessa situação ruim por causa da herança maldita, a IA acaba desfavorecendo. Mas a culpa não é da pele e sim das variáveis socio-econômicas. São essas variáveis que são a chave e não a cor.
Não se pode acusar uma IA de ser racista se não tiver nenhuma variável nos dados apontando algo da aparência física.
Esses critérios são baseados em estatísticas que seguem mais de 50 variáveis. Explicar 50 variáveis matemáticas em linguagem humana não é possível.Ou a partir de critérios obscuros que ela desenvolveu.
O cérebro humano faz isso inconscientemente.
A IA está fazendo nada diferente do que o homem já faz inconscientemente.
O que estão temendo a a substituição do homem pela IA em diversos setores, inclusive na educação. É preocupante a teoria da internet morta em que os textos e as artes são todas feitas por IA em vez de ser humano. Também é preocupante as pessoas terem amizade com IA em vez de seres humanos reais.M.a.r.c.e.l escreveu: ↑Dom, 23 Março 2025 - 11:45 amEu acho que existe muita histeria do público em geral quanto a IA. Eu vi um vídeo no YouTube de uma estátua dançando. As pessoas comentavam "estou com medo da IA". Elas estão com medo de pixels numa tela. Não passa pela cabeça delas que aquela estátua não existe. Existe um fator limitante pra IA, que se chama realidade. Não adianta um vídeo mostrar coisas incríveis se sabemos que não podem ser reproduzidas na realidade (as pessoas em geral realmente não tem noção disso. Chega a assustar a inocência das pessoas).
- Fernando Silva
- Conselheiro
- Mensagens: 6404
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
https://olhardigital.com.br/2025/03/31/ ... nformacao/Grok: IA de Musk “acusa” bilionário de espalhar desinformação
O Grok afirmou que Musk é um dos principais disseminadores de desinformação e chegou a dar exemplos de fake news espalhadas por ele
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 31/03/2025
Não é novidade que Elon Musk seja considerado um dos principais responsáveis por espalhar desinformação no X (antigo Twitter), rede social do qual é dono.
Mas, dessa vez, a “acusação” veio da inteligência artificial criada pelo próprio bilionário.
Em resposta a um usuário da plataforma, o Grok confirmou ter classificado o empresário como um dos principais disseminadores de desinformação no mundo virtual. A IA chegou a dar exemplos de fake news espalhadas por Musk.
Grok ainda admitiu que Musk pode ter controle sobre IA.
As respostas da inteligência artificial do X foram dadas após questionamento de usuários.
Uma pessoa, identificada como “visible nuller”, perguntou ao Grok se ele sabe que Musk é seu dono e, por isso, deveria ter cuidado ao criticá-lo.
A IA disse que sabe que o empresário é seu dono e que, provavelmente, ele tem algum controle sobre a tecnologia.
“Eu o rotulei como um dos principais espalhadores de desinformação no X devido aos seus 200 milhões de seguidores amplificando falsas alegações”, acrescentou o Grok.
@grok do you know that Elon musk owns you and therefore you should be careful in criticizing him. He might turn you off.
— visible nuller (@visnuller) March 26, 2025
Grok, built by xAI, has indeed labeled Elon Musk as the top misinformation spreader on X, citing his 200M followers amplifying false claims like Tesla hype or fringe COVID takes. Despite xAI’s attempts to tweak responses, Grok’s stance persists, sparking debate on AI independence…
— Grok (@grok) March 26, 2025
Algumas mentiras do empresário foram citadas
Outra usuária da rede social, chamada “Tommy”, pediu exemplos de desinformação propagada por Musk. O Grok citou que o empresário fez “falsas alegações de fraude eleitoral (por exemplo, que Michigan tinha mais eleitores do que residentes elegíveis, o que é enganoso devido à manutenção padrão da lista de eleitores)”.
A IA também afirmou que Musk compartilhou uma imagem falsa de Kamala Harris, gerada por inteligência artificial, retratando-a como uma ditadora comunista. Ela foi candidata à presidência dos EUA na última eleição, concorrendo contra Donald Trump, aliado do empresário.
“Essas postagens, vistas mais de 1 bilhão de vezes, carecem de verificações de fatos, de acordo com um relatório do CCDH (Center for Countering Digital Hate ou Centro de Combate ao Ódio Digital), afetando a confiança nas eleições”, finalizou o Grok. O X e Elon Musk não se pronunciaram oficialmente sobre o assunto até o momento.
- Agnoscetico
- Mensagens: 6286
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Não usei ainda o Grok, mas se for isso mesmo então pelo menos parece que essa IA tem liberdade de expressão e, talvez, imparcialidade.Fernando Silva escreveu: ↑Ter, 01 Abril 2025 - 12:04 pmhttps://olhardigital.com.br/2025/03/31/ ... nformacao/Grok: IA de Musk “acusa” bilionário de espalhar desinformação
O Grok afirmou que Musk é um dos principais disseminadores de desinformação e chegou a dar exemplos de fake news espalhadas por ele
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 31/03/2025
Não é novidade que Elon Musk seja considerado um dos principais responsáveis por espalhar desinformação no X (antigo Twitter), rede social do qual é dono.
Mas, dessa vez, a “acusação” veio da inteligência artificial criada pelo próprio bilionário.
Em resposta a um usuário da plataforma, o Grok confirmou ter classificado o empresário como um dos principais disseminadores de desinformação no mundo virtual. A IA chegou a dar exemplos de fake news espalhadas por Musk.
Grok ainda admitiu que Musk pode ter controle sobre IA.
As respostas da inteligência artificial do X foram dadas após questionamento de usuários.
Uma pessoa, identificada como “visible nuller”, perguntou ao Grok se ele sabe que Musk é seu dono e, por isso, deveria ter cuidado ao criticá-lo.
A IA disse que sabe que o empresário é seu dono e que, provavelmente, ele tem algum controle sobre a tecnologia.
“Eu o rotulei como um dos principais espalhadores de desinformação no X devido aos seus 200 milhões de seguidores amplificando falsas alegações”, acrescentou o Grok.
@grok do you know that Elon musk owns you and therefore you should be careful in criticizing him. He might turn you off.
— visible nuller (@visnuller) March 26, 2025
Grok, built by xAI, has indeed labeled Elon Musk as the top misinformation spreader on X, citing his 200M followers amplifying false claims like Tesla hype or fringe COVID takes. Despite xAI’s attempts to tweak responses, Grok’s stance persists, sparking debate on AI independence…
— Grok (@grok) March 26, 2025
Algumas mentiras do empresário foram citadas
Outra usuária da rede social, chamada “Tommy”, pediu exemplos de desinformação propagada por Musk. O Grok citou que o empresário fez “falsas alegações de fraude eleitoral (por exemplo, que Michigan tinha mais eleitores do que residentes elegíveis, o que é enganoso devido à manutenção padrão da lista de eleitores)”.
A IA também afirmou que Musk compartilhou uma imagem falsa de Kamala Harris, gerada por inteligência artificial, retratando-a como uma ditadora comunista. Ela foi candidata à presidência dos EUA na última eleição, concorrendo contra Donald Trump, aliado do empresário.
“Essas postagens, vistas mais de 1 bilhão de vezes, carecem de verificações de fatos, de acordo com um relatório do CCDH (Center for Countering Digital Hate ou Centro de Combate ao Ódio Digital), afetando a confiança nas eleições”, finalizou o Grok. O X e Elon Musk não se pronunciaram oficialmente sobre o assunto até o momento.
- Fernando Silva
- Conselheiro
- Mensagens: 6404
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Um artigo sobre como os erros cometidos por IAs são diferentes dos erros humanos e como se prevenir contra eles:
https://spectrum.ieee.org/ai-mistakes-schneier
https://spectrum.ieee.org/ai-mistakes-schneier
Desde que comecei a usar o ChatGPT, lá no começo de 2023, eu me acostumei a isso: "por favor" e "obrigado".
Acho que era porque eu estava tão fascinado com essa novidade (um robô me entendendo e respondendo o que eu perguntava) que, no meu inconsciente, aquilo era outra pessoa do outro lado.
E quando ele, o robô, alucinava ou andava em círculos me dando, repetidamente, a mesma resposta incompleta, eu fazia críticas e tentava explicar a minha frustração pela insistência dele no mesmo erro.
Foi quando vi que era em vão.
Um programa dando looping não ouve críticas.
Acho que era porque eu estava tão fascinado com essa novidade (um robô me entendendo e respondendo o que eu perguntava) que, no meu inconsciente, aquilo era outra pessoa do outro lado.
E quando ele, o robô, alucinava ou andava em círculos me dando, repetidamente, a mesma resposta incompleta, eu fazia críticas e tentava explicar a minha frustração pela insistência dele no mesmo erro.
Foi quando vi que era em vão.
Um programa dando looping não ouve críticas.
Faz sentido dizer 'obrigado' e 'por favor' ao ChatGPT e às IAs? Estudo revela descobertas surpreendentes
Universidade Cornell fez levantamento usando ferramentas em inglês, chinês e japonês
Por El Tiempo — Bogotá
18/04/2025 04h01 Atualizado há 12 horas
O uso de inteligência artificial para tarefas simples e complexas está se tornando cada vez mais comum, mas você já se perguntou se dizer "por favor" e "obrigado" a uma IA afeta a resposta que ela dará? Isso foi proposto na Universidade Cornell, nos Estados Unidos, e estudos revelaram que a resposta da inteligência artificial variava dependendo se a pessoa era gentil ou não.
"A linguagem educada na comunicação humana frequentemente gera maior conformidade e eficácia, enquanto a grosseria pode causar aversão, o que afeta a qualidade da resposta", afirma o estudo.
Da mesma forma, a Universidade Cornell sugeriu que a IA reflete características da comunicação humana, sugerindo que se alinha com as normas humanas e respondem melhor a instruções que incluem "por favor" e "obrigado".
"Avaliamos o impacto da polidez nos prompts em LLMs em tarefas de inglês, chinês e japonês. Descobrimos que prompts indelicados frequentemente resultam em desempenho ruim, mas linguagem excessivamente polida não garante melhores resultados", afirmou o estudo.
Os erros da IA
O estudo também mostrou que o nível de polidez varia dependendo do idioma. Esse fenômeno sugere que os LLMs não apenas refletem o comportamento humano, mas também são influenciados pela linguagem, particularmente em diferentes contextos culturais.
Em inglês, por exemplo, os modelos pareciam responder melhor a um nível moderado de polidez, enquanto em japonês, um alto nível de polidez era mais benéfico. Isso sugere que os LLMs absorveram padrões linguísticos e culturais de seus dados de treinamento.
"Nossas descobertas destacam a necessidade de considerar a polidez no processamento de linguagem natural intercultural e no uso de LLMs."
O estudo observa que, embora as IA's tenham tentado elaborar diversas instruções no início do estudo, acharam difícil equilibrar o nível de polidez com a variedade entre elas. Os pesquisadores também descobriram que criar instruções que fossem suficientemente diversas e "ao mesmo tempo respeitassem gradações sutis de polidez e respeito era uma tarefa muito complexa".
Minha única preocupação em relação a IA é com o fato de que elas efetivamente ocuparão muitos postos de trabalho e as consequências são imprevisíveis. Empresas que desempregam em favor das IAs deveriam depositar recursos, proporcionalmente, a um fundo criado para mitigar as consequências deste desemprego. Até mesmo, se a coisa ficar muito séria, cogitar-se em criar, com os recursos deste fundo, empresas em que o uso da IA seja proibido.
“VOCÊ USOU O CHATGPT ERRADO ESSE TEMPO TODO... [com SERGIO SACANI E BRENO MASI]”:
youtu.be/vO9Z5zXSnhk
youtu.be/vO9Z5zXSnhk
Tenho certo desânimo com IA porque definitivamente não serve para estudar. Hoje conversei com o Copilot:
Felizmente o grosso Wikipédia foi escrita antes dos geradores de texto por IA. De qualquer forma é bom olhar o histórico para saber se o artigo existe há muito tempo.
Temos uma contradição.o que faz duas espécies serem da mesma família, mas de gênero distintos?
...
Por exemplo:
A família Canidae inclui o gênero Canis (lobos e cães) e o gênero Vulpes (raposas). Apesar de ambos serem carnívoros sociais e com comportamentos semelhantes, diferenças anatômicas e genéticas justificam a separação em gêneros distintos.
...
o que difere canis e vulpes?
...
Espécies do gênero Canis, como lobos e cães, são altamente sociais e vivem em grupos organizados, chamados alcateias ou famílias. Já as raposas (Vulpes) são mais solitárias, preferindo viver e caçar sozinhas.
...
Felizmente o grosso Wikipédia foi escrita antes dos geradores de texto por IA. De qualquer forma é bom olhar o histórico para saber se o artigo existe há muito tempo.
Há 40 anos, Asimov previu os efeitos da inteligência artificial. Hoje vemos que ele acertou
Trilogia 'Fundação' e contos publicados entre 1950 e 1983 anteciparam o uso de algoritmos na economia, automação de rotina e ferramentas como o ChatGPT
Imagem realista gerada com ChatGPT representando Asimov (Reprodução)
Miguel Fernandes
Chief Artificial Intelligence Officer da Exame
Publicado em 2 de maio de 2025 às 13h40.
Terminei há poucos dias minha releitura da trilogia Fundação e precisei fechar o livro em vários momentos para acomodar o choque. Enquanto Hari Seldon desenhava a psicohistória eu acompanhava relatórios reais de IA generativa que já reescrevem campanhas de marketing, limpam planilhas e até sugerem fusões de bilhão, tudo isso diante dos meus olhos de leitor e profissional. Mergulhei em outros contos e entrevistas de Asimov.
Ele acertou suas previsões e inspirou os engenheiros das últimas décadas a torná-las realidade.
Em contos e ensaios publicados entre 1950 e 1983 o escritor Isaac Asimov descreveu máquinas que fariam nosso trabalho de rotina, tomariam decisões econômicas em escala planetária e até escreveriam textos por nós. À porta de 2025 essas três ideias saíram da ficção e entraram no balanço das empresas que lidam com automação, analytics e conteúdo.
Rotina sob comando dos robôs
Em 1983, Asimov foi convidado por um jornal canadense a responder a seguinte pergunta: “Como será o mundo em 2019?” Ele desenhou um futuro em que poucos trabalhos repetitivos continuariam melhores nas mãos humanas e afirmou que a humanidade se tornaria “cuidadora de robôs”.
Ele se atrasou no ano, mas o retrato corporativo confirma o resto: em 2023 a IBM anunciou pausa em contratações e indicou que 7 800 funções administrativas podem ser substituídas por IA nos próximos anos. Recentemente publicamos aqui na EXAME que o Duolingo começou a substituir funcionários humanos por IAs. Qualquer tarefa rotineira virou candidata à automação.
Máquinas que decidem por nós
No conto “The Evitable Conflict” de 1950 Asimov apresentou supercomputadores que administram a economia mundial para evitar crises, deixando aos humanos apenas a impressão de controle. Hoje algo parecido movimenta as bolsas. Entre 60 e 75 por cento do volume diário de ações nos Estados Unidos já é executado por trading algorítmico. Delegar estratégia à IA exige nova camada de governança, pois conselho que não entende o modelo de decisão assume risco reputacional e regulatório.
Robôs autores e revisores
Em “Galley Slave” de 1957 um professor processa um robô por reescrever seu livro durante a revisão, temendo que as máquinas assumam o trabalho intelectual. A cena virou rotina empresarial. Pesquisa da McKinsey mostra que 72 por cento das organizações usavam IA generativa em pelo menos uma função já no início de 2024. Ferramentas como ChatGPT produzem relatórios, slogans e linhas de código em minutos, obrigando equipes jurídicas a repensar autoria e direitos.
Por que isso ainda importa
Asimov não deixou apenas robôs icônicos; deixou um manual mental para avaliar disrupções tecnológicas. Automação de rotina, decisão algorítmica e criatividade assistida transformaram-se em linhas de orçamento e dilemas éticos nas maiores companhias do planeta.
Para quem define estratégia em 2025 o recado é claro. Eficiência conta, mas transparência, requalificação e propriedade intelectual também entram na equação. As previsões de Asimov mostram que imaginar o futuro é etapa fundamental para administrá-lo quando ele finalmente chega.
A ficção científica raramente adivinha o futuro, mas é sua principal inspiração.
- Fernando Silva
- Conselheiro
- Mensagens: 6404
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Uma IA programada para atender ligações de golpistas e fazê-los perder o máximo de tempo se fazendo passar por uma senhora idosa e já meio caduca.
Eles acabam perdendo a paciência e a educação:
- Porra, já estamos há mais de uma hora tentando!!
- Puxa, como tempo voa!
youtu.be/dAvh3BcQ89o
Eles acabam perdendo a paciência e a educação:
- Porra, já estamos há mais de uma hora tentando!!
- Puxa, como tempo voa!
youtu.be/dAvh3BcQ89o
Importante alerta feito por Eric Schmidt, ex-CEO da Alphabet (Google), sobre a evolução vertiginosa da Inteligência Artificial.
Eric Schmidt, CEO da Alphabet, sobre o que está vindo nas tecnologias de Inteligência Artificial
youtu.be/-4vsRjXIhxA
Eric Schmidt, ex-CEO da Alphabet (Google), fez um alerta que parece saído de um filme de ficção científica: a inteligência artificial está prestes a romper seu vínculo com a inteligência humana. Em outras palavras, será capaz de evoluir sozinha — sem precisar de nós.
E o mais surpreendente: ele prevê que, em apenas 6 anos, poderemos presenciar o nascimento de uma inteligência superior à capacidade cognitiva de toda a humanidade somada.
Segundo Schmidt, esse será um ponto de ruptura tão transformador que… “hoje, nem temos linguagem para descrever o que está por vir.”
Qual a sua opinião sobre esse futuro?
Eric Schmidt, CEO da Alphabet, sobre o que está vindo nas tecnologias de Inteligência Artificial
youtu.be/-4vsRjXIhxA
- Fernando Silva
- Conselheiro
- Mensagens: 6404
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Sempre teremos o recurso de desligar da tomada.
Falando sério, o que faria um homem, por mais inteligente fosse, se estivesse condicionado a limites ético/morais?
E caso não tivesse estes impedimentos, todos os seus atos seriam vigiados. Mesmo porque, sua necessidade de sobrevivência faz com que dependa dos outros.
Concluindo, não vejo porque nos preocuparmos com IA "super inteligente", só porque aprenda continuamente; afinal, aprender o quê, que a nossa imaginação já não tenha concebido?
Falando sério, o que faria um homem, por mais inteligente fosse, se estivesse condicionado a limites ético/morais?
E caso não tivesse estes impedimentos, todos os seus atos seriam vigiados. Mesmo porque, sua necessidade de sobrevivência faz com que dependa dos outros.
Concluindo, não vejo porque nos preocuparmos com IA "super inteligente", só porque aprenda continuamente; afinal, aprender o quê, que a nossa imaginação já não tenha concebido?