Inteligência artificial - Generalidades
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Apesar de muita gente dizet que IA ainda é muito elementar, mas taria ajudando a resolver crimes:
Estuprador em série é identificado 28 anos depois com ajuda de inteligência artificial
https://br.aeplay.tv/noticias/estuprado ... artificial
Serial killer que estrangulou jovem é identificado 44 anos depois; ele se matou com uma facada na perna
https://br.aeplay.tv/noticias/serial-ki ... ou-com-uma
Mas na área de atendimentos os bots já tão substituindo atendentes humanos, mas muitas vezes ainda deixa desejar mesmo em relação ai atendimento humano.
Em que outras situações vocês acham que IA ainda deixa a desejar?
Estuprador em série é identificado 28 anos depois com ajuda de inteligência artificial
https://br.aeplay.tv/noticias/estuprado ... artificial
Serial killer que estrangulou jovem é identificado 44 anos depois; ele se matou com uma facada na perna
https://br.aeplay.tv/noticias/serial-ki ... ou-com-uma
Mas na área de atendimentos os bots já tão substituindo atendentes humanos, mas muitas vezes ainda deixa desejar mesmo em relação ai atendimento humano.
Em que outras situações vocês acham que IA ainda deixa a desejar?
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
A IA já é uma realidade nos algoritmos de redes sociais, na seleção de candidatos a emprego, na análise de resultados de pesquisa ou "big data" e mais outras coisas que a gente nem fica sabendo.
Mas, sim, em alguns casos, ainda é necessário um atendente humano, nem que seja porque o usuário não sabe transmitir as informações de forma a que a IA entenda. Ou porque há muitos casos não previstos.
Mas, sim, em alguns casos, ainda é necessário um atendente humano, nem que seja porque o usuário não sabe transmitir as informações de forma a que a IA entenda. Ou porque há muitos casos não previstos.
Realmente, é uma tecnologia recente que tem muito espaço para crescer.
As ferramentas que teremos no futuro farão coisas surpreendentes.
Porém...
Eu tenho visto uma confusão que estão fazendo com o termo "Inteligência Artificial".
Para parecer mais atualizado, inovador e atraente, todo mundo está chamando programação convencional e acessos a base de dados de IA.
Não é.
Como se vê, não é qualquer programa que se encaixa na definição de IA.
O sistema tem que perceber o ambiente, tem que aprender com ele e tomar atitudes.
Para parecer moderninho, todo mundo está jogando qualquer coisa nas costas da IA.
Não é.
Os algoritmos de redes sociais se enquadram aí, mas simples acesso a base de dados e cruzamento de informações não.
Por exemplo:
As ferramentas que teremos no futuro farão coisas surpreendentes.
Porém...
Eu tenho visto uma confusão que estão fazendo com o termo "Inteligência Artificial".
Para parecer mais atualizado, inovador e atraente, todo mundo está chamando programação convencional e acessos a base de dados de IA.
Não é.
Wikipedia escreveu:Inteligência artificial (por vezes mencionada pela sigla em português IA ou pela sigla em inglês AI - artificial intelligence) é a inteligência similar à humana exibida por mecanismos ou software, além de também ser um campo de estudo acadêmico. Os principais pesquisadores e livros didáticos definem o campo como "o estudo e projeto de agentes inteligentes", onde um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso. Andreas Kaplan e Michael Haenlein definem a inteligência artificial como “uma capacidade do sistema para interpretar corretamente dados externos, aprender a partir desses dados e utilizar essas aprendizagens para atingir objetivos e tarefas específicos através de adaptação flexível”. John McCarthy, quem cunhou o termo em 1956 ("numa conferência de especialistas celebrada em Darmouth Colege" Gubern, Román: O Eros Eletrónico), a define como "a ciência e engenharia de produzir máquinas inteligentes". É uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.
Como se vê, não é qualquer programa que se encaixa na definição de IA.
O sistema tem que perceber o ambiente, tem que aprender com ele e tomar atitudes.
Para parecer moderninho, todo mundo está jogando qualquer coisa nas costas da IA.
Não é.
Os algoritmos de redes sociais se enquadram aí, mas simples acesso a base de dados e cruzamento de informações não.
Por exemplo:
Serial killer que estrangulou jovem é identificado 44 anos depois com ajuda da Inteligência ArtificialO DNA recolhido na cena do crime de Pamela foi colocado em uma base de dados e a inteligência artificial faz o restante, cruzando possibilidades e chegando a uma relação de pessoas aparentadas a Lindahl.
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Tenho um chatbot que conheço, acho que desde 2009, que dizuam set voltado pra IA
Robô Ed
https://www.inbot.com.br/cases/roboed
Robô Ed
https://www.inbot.com.br/cases/roboed
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Tem algumas que não sei usam algum nível de IA ou apenas uma combinação de algoritmo com cruzamento de dados, como;
Akinator
Que daz "adivinhação" de pensanento com perguntas que vai eliminando
https://pt.akinator.com
Bots que replicam tweets que mencionam Bolsonaro, talvez com intenção de aumentar popularidade do Bolsonaro, espalhando posts sobre ele, mas sem um critério claro, pois espalha posts sobre ele, mesmo que seja criticando.
Bolsonaro Bot
https://twitter.com/bolsonarort
Aosfatos
Usa um sistema de checagem de notícias.
https://www.aosfatos.org/noticias/robo- ... no-twitter
https://www.aosfatos.org/fatima
Akinator
Que daz "adivinhação" de pensanento com perguntas que vai eliminando
https://pt.akinator.com
Bots que replicam tweets que mencionam Bolsonaro, talvez com intenção de aumentar popularidade do Bolsonaro, espalhando posts sobre ele, mas sem um critério claro, pois espalha posts sobre ele, mesmo que seja criticando.
Bolsonaro Bot
https://twitter.com/bolsonarort
Aosfatos
Usa um sistema de checagem de notícias.
https://www.aosfatos.org/noticias/robo- ... no-twitter
https://www.aosfatos.org/fatima
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
https://olhardigital.com.br/video/intel ... ano/101175Inteligência artificial já é parte do cotidiano
Você já parou pra pensar que o simples ato de navegar na internet - ou então ao usar um aplicativos no smartphone - já está em contato com sistemas da Inteligência Artificial? Algumas pessoas são entendidas do assunto. Mas sempre tem aquele que não faz a mínima ideia do que isso significa. A gente separou alguns exemplos de soluções inteligentes que fazem parte do nosso dia a dia. A primeira é bastante comum são os aplicativos de trânsito, como o Waze ou Google Maps. Essas ferramentas usam a Inteligência Artificial para cruzar informações de milhares de fontes em tempo real para oferecer a melhor rota e calcular o tempo do percurso. Talvez você não tenha percebido, mas os apps de transito “sabem" se é feriado, se está chovendo. E também da aquela dica necessária, sobre engarrafamento, ou se se aconteceu algum acidente, que possa piorar ainda mais o trânsito.
E se você é um dos poucos que ainda não fez uma compra online, pelo menos já acessou algum e-commerce desses grandes varejistas, certo?. ¿Já reparou nas sugestões de compras que aparecem para você? É, tem Inteligência Artificial por trás disso também. O mesmo vale para pesquisas na internet; os resultados assim como as sugestões de compra são baseados no seu comportamento online, no seu perfil, nas publicações que curtiu, naquelas que apenas parou para ler, nos comentários que fez e páginas que visitou. Tudo é analisado por um algoritmo inteligente, que aprende os seus gostos e costumes a cada pesquisa que você faz e assim consegue exibir um resultado cada vez mais personalizado…
Nem todo mundo experimentou, mas as assistentes virtuais dos smartphones - seja a Siri no iPhone ou o Google Assistant, no Android - também são grandes exemplos do uso de Inteligência Artificial; e, melhor, na palma das nossas mãos. Se ainda não teve a chance (ou a curiosidade), tente fazer um pedido para elas; provavelmente a resposta vai te surpreender.
Ferramentas baseadas em Inteligência Artificial também facilitam muito a vida daqueles que já descobriram que a Poupança pode não ser a melhor escolha na hora de investir, e buscam opções com melhores rendimentos. Muitas startups já oferecem suas tropas de robôs capazes de avaliarem diversas opções de investimentos, e combinar com o perfil do investidor e, a partir daí, distribuir os recursos e acompanhar a performance de cada carteira para fazer ajustes quando necessário.
A Inteligência Artificial também já trabalha a favor da sua segurança; seja na rua ou ambientes fechados. Câmeras inteligentes, além de gravar imagens, interpretam também cenas fora do padrão. Se, por exemplo, uma câmera flagrar uma pessoa pulando um muro, o sistema vai considerar a cena suspeita e dispara um alarme. Se um ser humano não consegue acompanhar dezenas ou até centenas de câmeras ao mesmo tempo, um software inteligente, sim, fica de olho em tudo o tempo todo.
Fernando Silva escreveu: ↑Seg, 25 Maio 2020 - 10:15 amhttps://olhardigital.com.br/video/intel ... ano/101175Inteligência artificial já é parte do cotidiano
Para a gente ter uma ideia de como o conceito de IA está sendo erroneamente disseminado, percebemos que até o articulista do Olhar Digital se contaminou com o oba-oba de que tudo que é programação também é IA.
Não é.
Para ser IA, o sistema precisa criar sua própria base de dados a partir do que observa e do que é provocado a reagir.
Uma ferramenta que calcula a melhor rota no Google Maps apenas consultou uma base pronta e retornou um resultado otimizado.
E calculou o tempo do percurso.
Isso NÃO é IA.
Uma ferramenta que sabe se é feriado ou se está chovendo é o cúmulo do ridílo em ser considerado IA.
Inteligência Artificial é muito mais do que isso.
Um sistema que diz se a poupança é o melhor investimento e que busque outras opções também não se enquadra nisso.
Basta consultar uma base sem ter que formar uma personalizada e dinâmica, aplicada ao investidor.
Uma câmera de segurança que "vê" alguém pulando o muro e aciona o alarme TAMBÉM não é.
E se for o dono da casa que pulou para apanhar a bola que o filho chutou para fora?
Seria IA se a câmera identificasse isso.
Quem melhor identifica a ação da IA são os programadores que já sabem de antemão do que é necessário para que o programa execute suas ações.
Para ser IA, o programa tem que sair das linhas fixas do código e passar a ter um "motor" de exploração que vá além disso.
Os assistentes virtuais se enquadram nisso. Eles analisam frases e formam um "conhecimento" sobre seu parceiro de diálogo, tomam decisões para sugerir e responder.
Fico triste sempre que vejo essa confusão.
Atribuo ao sensacionalismo que querem dar àquele produto, ao chamamento para que seja cobiçado e provoque interesse com o termo que apela à ficção científica, ao fantástico.
A mesma tristeza que sinto ao constatar o uso incorreto, e cada vez mais disseminado, do termo "literalmente".
Todos dizem "literalmente" quando querem reforçar algo que muitas vezes NÃO é literal.
Atribuo ao sensacionalismo que querem dar àquele produto, ao chamamento para que seja cobiçado e provoque interesse com o termo que apela à ficção científica, ao fantástico.
A mesma tristeza que sinto ao constatar o uso incorreto, e cada vez mais disseminado, do termo "literalmente".
Todos dizem "literalmente" quando querem reforçar algo que muitas vezes NÃO é literal.
Off_topic:
Um doce para quem encontrar Inteligência Artificial no artigo a seguir.
É por isso que as coisas ficam confusas. Usam-se termos que não são aquilo que dizem ser.
Tornar o judiciário mais ágil com sua informatização e novos procedimentos NÃO É usar Inteligência Artificial.
Quem enche a boca para falar isso não sabe o que é IA.
É por isso que as coisas ficam confusas. Usam-se termos que não são aquilo que dizem ser.
Tornar o judiciário mais ágil com sua informatização e novos procedimentos NÃO É usar Inteligência Artificial.
Quem enche a boca para falar isso não sabe o que é IA.
Inteligência artificial e o Judiciário
Poder Judiciário é berço de experiências tecnológicas bem-sucedidas no país
14.jun.2020 às 23h15
Em maio de 2020, em meio à pandemia, foi publicado o estudo mais abrangente até agora sobre o uso de inteligência artificial no Judiciário brasileiro.
O estudo foi realizado em inglês por um grupo internacional de pesquisadores da escola de administração pública internacional da Universidade Columbia (Sipa), sob a supervisão do professor
André Corrêa D’Almeida.
Com o título “The Future of AI in the Brazilian Judicial System” (O Futuro da IA no Sistema Judicial Brasileiro), o texto cobre projetos atuais de AI no Judiciário e propõe uma série de recomendações, inclusive éticas, para sua continuidade futura.
Deveria servir de referência para o Conselho Nacional de Justiça, para o STF e para outros Poderes sobre como pensar a relação complexa entre as ferramentas de IA e o poder público.
O estudo serve também para lembrar que o Poder Judiciário é berço de experiências tecnológicas bem-sucedidas no país. Uma delas é o Processo Judicial Eletrônico (PJe), sistema que permite aos operadores e aos usuários da Justiça realizar todas as principais ações digitalmente.
O PJe abrange hoje 70% da administração da Justiça no país e é resultado de esforço e foco de muitos anos.
Se toda a administração pública do país fosse similar ao PJe, os serviços públicos ficariam mais perto dos padrões da Estônia, líder global em serviços públicos digitais.
Pelo PJe, os atos podem ser feitos digitalmente, incluindo a entrega de documentos, sem necessidade de ir fisicamente ao Judiciário. Tudo sem papel. Isso gera uma base de dados relevante, que permite aprimorar a gestão e fomentar a inovação nos setores público e privado. O Judiciário brasileiro só pode pensar em inteligência artificial de forma concreta porque antes criou o PJe.
Um dos defeitos do PJe, no entanto, é justamente depender do vergonhoso Certificado Digital, que é pago. Ele é exigido para “certificar” a identidade dos usuários, que pagam até R$ 250 por ano para isso. Outras formas de identificação mais eficientes, baratas, seguras e includentes são possíveis hoje.
Outro destaque do avanço em inteligência artificial no Judiciário é sua abertura para inovação descentralizada. Por exemplo, o sistema Sinapses foi desenvolvido pelo Tribunal de Justiça de Rondônia (TJ-RO). Em 2017, preocupados com a demora nas decisões, o TJ-RO começou por conta própria a criar um modelo para gerar aplicações de inteligência artificial.
O modelo não só deu certo como começou a produzir resultados concretos. Em 2018, o Sinapses foi então nacionalizado pelo Conselho Nacional de Justiça e hoje é referência para o desenvolvimento
de IA no Judiciário.
Essa história merece ser conhecida. Mostra um tipo de inovação que dá certo no país e o pioneirismo que muitas vezes vem de longe dos “grandes centros”.
Os sucessos colhidos pelo Judiciário demonstram que é possível digitalizar todo e qualquer serviço público, inclusive na administração pública federal. Foco, planejamento, abertura e cooperação descentralizada ajudam.
Mais do que isso, é preciso pensar em boa governança. Digitalização nunca é só uma inovação técnica. É uma inovação também administrativa e de recursos humanos. E é, sobretudo, uma inovação ética, de compromisso com o interesse público.
Reader
Já era -> TV que pega apenas sinal de TV
Já é -> TV conectada com aplicações de streaming já de fábrica
Já vem -> TV conectada com canais de e-sports (esportes eletrônicos) de fábrica
Ronaldo Lemos
Advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro.
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Seria mais outra confusão com termo IA ou taria certo?
Inteligência artificial faz imagens borradas ficarem 60x mais nítidas
https://amp.olhardigital.com.br/noticia ... ssion=true
Inteligência artificial faz imagens borradas ficarem 60x mais nítidas
https://amp.olhardigital.com.br/noticia ... ssion=true
Pelos dados fornecidos pela reportagem, não é possível dizer com certeza se, de fato, se trata mesmo de IA ou não.Agnoscetico escreveu: ↑Sáb, 20 Junho 2020 - 21:09 pmSeria mais outra confusão com termo IA ou taria certo?
Inteligência artificial faz imagens borradas ficarem 60x mais nítidas
https://amp.olhardigital.com.br/noticia ... ssion=true
Já existem muitos algoritmos que trabalham e tratam imagens a partir de cálculos e interpolações.
Mas são programas apenas.
Se esse algoritmo citado no Olhar Digital for possível de adquirir informação nova, armazená-la e fazer uso posterior para ir melhorando ainda mais suas habilidades, aí sim, poderemos dizer, com segurança de que se trata de Inteligência Artificial.
Mas se for um mero programa estático, que não tenha evolução própria, não se trata de IA.
Inteligência Artificial se tornou um termo muito atraente para se usar. É também um ímã para cliques.
Uma pena que exista sensacionalismo barato por toda parte.
Pode não ser o caso da reportagem. Os dados informados não permitem tirar conclusões.
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Ficam mais nítidas, mas é uma informação falsa que é acrescentada à imagem.Agnoscetico escreveu: ↑Sáb, 20 Junho 2020 - 21:09 pmSeria mais outra confusão com termo IA ou taria certo?
Inteligência artificial faz imagens borradas ficarem 60x mais nítidas
https://amp.olhardigital.com.br/noticia ... ssion=true
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Sim, é como rosto novo feito a partir um padrão de imagem borrada.Fernando Silva escreveu: ↑Dom, 21 Junho 2020 - 07:35 amFicam mais nítidas, mas é uma informação falsa que é acrescentada à imagem.Agnoscetico escreveu: ↑Sáb, 20 Junho 2020 - 21:09 pmSeria mais outra confusão com termo IA ou taria certo?
Inteligência artificial faz imagens borradas ficarem 60x mais nítidas
https://amp.olhardigital.com.br/noticia ... ssion=true
Mas fiquei na dúvida se pra elaborar uma face nova, não seria IA, pois pra se criar face nova a partir duma imagem sem ter erros na posição de olhos, nariz, precisaria ter um padrão de posicionamento não-aleatório das partes. Imagina se esse gerador de faces pusesse partes da face em deslocadas e assimétricas.
- Frencisco Toucinho
- Mensagens: 158
- Registrado em: Qua, 17 Junho 2020 - 21:14 pm
- Localização: São Paulo
No meu ambiente de serviço já há um software com Inteligência Artificial. A pessoa que faz a conferência diz que o resultado já sai pronto e correto na imensa maioria das vezes. Ela até já está com medo de ser substituída por um laptop.
Programas estáticos NÃO SÃO Inteligência Artificial.
Existem programas estáticos que fazem maravilhas. Mas não são IA.
Para ser IA, o algoritmo precisa evoluir, armazenar novos dados e tomar decisões a partir deles.
Um programa que não "aprende" com experiências prévias não é IA.
É apenas um programa de computador.
Os mesmos que já existem desde o tempo do cartão perfurado lá na década de 60.
Algo parado, que não avança sozinho.
Existem programas estáticos que fazem maravilhas. Mas não são IA.
Para ser IA, o algoritmo precisa evoluir, armazenar novos dados e tomar decisões a partir deles.
Um programa que não "aprende" com experiências prévias não é IA.
É apenas um programa de computador.
Os mesmos que já existem desde o tempo do cartão perfurado lá na década de 60.
Algo parado, que não avança sozinho.
Vejam outros vídeos do excelente canal:
https://www.youtube.com/channel/UCf_kacKyoRRUP0nM3obzFbg/videos
https://www.youtube.com/channel/UCf_kacKyoRRUP0nM3obzFbg/videos
- Frencisco Toucinho
- Mensagens: 158
- Registrado em: Qua, 17 Junho 2020 - 21:14 pm
- Localização: São Paulo
Sim, concordo, para se IA necessita apresentar alguma evolução, alguma reação à mudança. Vou investigar como o programa lida com situações novas e inesperadas.Gabarito escreveu: ↑Dom, 21 Junho 2020 - 21:07 pmProgramas estáticos NÃO SÃO Inteligência Artificial.
Existem programas estáticos que fazem maravilhas. Mas não são IA.
Para ser IA, o algoritmo precisa evoluir, armazenar novos dados e tomar decisões a partir deles.
Um programa que não "aprende" com experiências prévias não é IA.
É apenas um programa de computador.
Os mesmos que já existem desde o tempo do cartão perfurado lá na década de 60.
Algo parado, que não avança sozinho.
Elon Musk: “A inteligência artificial ameaça a existência da nossa civilização”
CEO da SpaceX alerta para os riscos aos quais a sociedade com inteligência artificial sem supervisão
FÉLIX PALAZUELOS
18 JUL 2017 - 10:22 BRT
Elon Musk instou os governadores dos Estados Unidos a tomar medidas contra os riscos à sociedade que existem no desenvolvimento da inteligência artificial e que seja criado um órgão que supervisione e oriente o seu desenvolvimento.
Musk, fundador do PayPal, CEO da fabricante do veículos Tesla Motors e da empresa aeroespacial SpaceX, é considerado um dos principais protagonistas da inovação. Luta através de suas empresas para acelerar a transição às energias renováveis e quer transformar a raça humana em uma espécie multiplanetária. Mas no que se refere à inteligência artificial, acredita que é preciso pisar no freio.
“É um risco para a existência da nossa civilização”, advertiu o empresário aos governadores em uma reunião que aconteceu no sábado, em Rhode Island. “Até as pessoas não vejam robôs matando gente na rua não se entenderão os perigos da inteligência artificial”.
Dentro de 20 anos, não é que não haverá pessoas ao volante. É que simplesmente não haverá volante
Musk pede que, ao contrário do que acontece em outras indústrias, se regulamente de forma proativa ao invés de esperar que surjam problemas. Se chegarmos a esse ponto, será “tarde demais”.
O empresário adverte que “ao contrário de comida estragada” os carros com defeitos de fábrica e os acidentes de avião, que são regulados porque pode afetar um grupo de indivíduos, a inteligência artificial afeta toda a sociedade. “Permitiríamos que qualquer um fabricasse aeronaves sem nenhum tipo de controle?”, perguntou retoricamente Musk. “Costumo ser contra as regulamentações estritas, mas em inteligência artificial ela é necessária”.
Stephen Hawking advertiu por sua vez para o risco do avanço da inteligência artificial por parte de empresas privadas sem controle para a raça humana. O desenvolvimento dela surpreende até mesmo seus próprios responsáveis. Anos atrás era inconcebível que um computador ganhasse um jogo de go, o jogo de lógica e estratégia que se originou na antiga China há mais de 2.500 anos, mas o Google conseguiu vencer os melhores em poucos anos de desenvolvimento, revolucionando para sempre a forma de jogar.
[...]
https://brasil.elpais.com/brasil/2017/0 ... 08679.html
CEO da SpaceX alerta para os riscos aos quais a sociedade com inteligência artificial sem supervisão
FÉLIX PALAZUELOS
18 JUL 2017 - 10:22 BRT
Elon Musk instou os governadores dos Estados Unidos a tomar medidas contra os riscos à sociedade que existem no desenvolvimento da inteligência artificial e que seja criado um órgão que supervisione e oriente o seu desenvolvimento.
Musk, fundador do PayPal, CEO da fabricante do veículos Tesla Motors e da empresa aeroespacial SpaceX, é considerado um dos principais protagonistas da inovação. Luta através de suas empresas para acelerar a transição às energias renováveis e quer transformar a raça humana em uma espécie multiplanetária. Mas no que se refere à inteligência artificial, acredita que é preciso pisar no freio.
“É um risco para a existência da nossa civilização”, advertiu o empresário aos governadores em uma reunião que aconteceu no sábado, em Rhode Island. “Até as pessoas não vejam robôs matando gente na rua não se entenderão os perigos da inteligência artificial”.
Dentro de 20 anos, não é que não haverá pessoas ao volante. É que simplesmente não haverá volante
Musk pede que, ao contrário do que acontece em outras indústrias, se regulamente de forma proativa ao invés de esperar que surjam problemas. Se chegarmos a esse ponto, será “tarde demais”.
O empresário adverte que “ao contrário de comida estragada” os carros com defeitos de fábrica e os acidentes de avião, que são regulados porque pode afetar um grupo de indivíduos, a inteligência artificial afeta toda a sociedade. “Permitiríamos que qualquer um fabricasse aeronaves sem nenhum tipo de controle?”, perguntou retoricamente Musk. “Costumo ser contra as regulamentações estritas, mas em inteligência artificial ela é necessária”.
Stephen Hawking advertiu por sua vez para o risco do avanço da inteligência artificial por parte de empresas privadas sem controle para a raça humana. O desenvolvimento dela surpreende até mesmo seus próprios responsáveis. Anos atrás era inconcebível que um computador ganhasse um jogo de go, o jogo de lógica e estratégia que se originou na antiga China há mais de 2.500 anos, mas o Google conseguiu vencer os melhores em poucos anos de desenvolvimento, revolucionando para sempre a forma de jogar.
[...]
https://brasil.elpais.com/brasil/2017/0 ... 08679.html
Como a inteligência artificial poderia acabar com a Humanidade - por acidente
31 outubro 2019
Um especialista em inteligência artificial diz que robôs 'bem-intencionados' ainda podem se voltar contra nós
De Stephen Hawking a Elon Musk, algumas das principais mentes do mundo levantaram preocupações de que a inteligência artificial represente uma ameaça aos seres humanos.
Mas, de acordo com um novo livro sobre o tema, não devemos temer a possibilidade de uma revolta de robôs autoconscientes contra seus "mestres" humanos.
E sim com o fato de as máquinas se tornarem tão boas em alcançar os objetivos que estabelecemos para elas que podemos acabar aniquilados por ordenarmos, sem perceber, as tarefas erradas.
A nova função da Netflix que revolta cineastas
Como se proteger de bug do WhatsApp que pode deixar celular Android vulnerável a hackers
O professor Stuart Russell, da Universidade da Califórnia, é autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil) e especialista nos avanços possibilitados pelo aprendizado das máquinas.
"O mote dos filmes de Hollywood é sempre que a máquina espontaneamente se torna consciente. Depois, decide que odeia seres humanos e quer matar a todos nós", disse ele à BBC.
[...]
https://www.bbc.com/portuguese/geral-50228913
31 outubro 2019
Um especialista em inteligência artificial diz que robôs 'bem-intencionados' ainda podem se voltar contra nós
De Stephen Hawking a Elon Musk, algumas das principais mentes do mundo levantaram preocupações de que a inteligência artificial represente uma ameaça aos seres humanos.
Mas, de acordo com um novo livro sobre o tema, não devemos temer a possibilidade de uma revolta de robôs autoconscientes contra seus "mestres" humanos.
E sim com o fato de as máquinas se tornarem tão boas em alcançar os objetivos que estabelecemos para elas que podemos acabar aniquilados por ordenarmos, sem perceber, as tarefas erradas.
A nova função da Netflix que revolta cineastas
Como se proteger de bug do WhatsApp que pode deixar celular Android vulnerável a hackers
O professor Stuart Russell, da Universidade da Califórnia, é autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil) e especialista nos avanços possibilitados pelo aprendizado das máquinas.
"O mote dos filmes de Hollywood é sempre que a máquina espontaneamente se torna consciente. Depois, decide que odeia seres humanos e quer matar a todos nós", disse ele à BBC.
[...]
https://www.bbc.com/portuguese/geral-50228913
Editado pela última vez por JJ_JJ em Dom, 19 Julho 2020 - 16:27 pm, em um total de 1 vez.
Ex-funcionários da Google estão com medo da ameaça de "robôs assassinos"
Por Natalie Rosa | 17 de Setembro de 2019 às 07h51
Reprodução: Technology Review
O medo de que os robôs um dia façam um grande estrago na humanidade já é discurso antigo, mas segundo uma ex-engenheira de software da Google a ameaça está maior que nunca.
Laura Nolan, que trabalhou na gigante da tecnologia por quatro anos, revela que o Projeto Maven, para o qual havia sido contratada nos seus últimos dias na empresa, pode ser extremamente perigoso para a humanidade.
A profissional deixou a companhia após receber o pedido para que aprimorasse drones militares, em protesto contra a possível criação de armas autônomas para os Estados Unidos. Agora, ela pede que qualquer "máquina de matar" que não seja operada por humanos seja banida.
Segundo a engenheira, a Google pediu a ela e a outros funcionários que construíssem uma inteligência artificial capaz de diferenciar pessoas e objetos a uma velocidade infinitamente mais rápida.
Ao contrário dos drones militares, que podem ser controlados pelas equipes a longas distâncias, as armas autônomas podem causar grandes destruições caso não sejam usadas com o intuito para as quais foram programadas. Esses sistemas podem atingir o alvo inimigo sem a participação humana, sendo capaz também de distinguir entre objetos e pessoas.
Mas não foi só Nolan quem se revoltou contra o Project Maven. O projeto precisou ser pausado em maio deste ano quando milhares de funcionários assinaram uma petição contra ele, enquanto dezenas de outros também pediram demissão em protesto.
Nolan agora protesta junto à Campanha Para Parar Robôs Assassinos (Campaign to Stop Killer Robots), que aborda quais são os perigos que as armas autônomas podem trazer para a humanidade.
"A probabilidade de um desastre é proporcional a como muitas dessas máquinas estarão em uma área particular de uma só vez", conta a ex-engenheira de software da Google. "O que vocês estão vendo são possíveis atrocidades e matanças ilegais mesmo dentro das leis de guerra, principalmente se centenas de milhares dessas máquinas forem lançadas", completa, dizendo ainda que os sistemas são muito imprevisíveis e perigosos.
[...]
https://canaltech.com.br/inteligencia-a ... os-149845/
Por Natalie Rosa | 17 de Setembro de 2019 às 07h51
Reprodução: Technology Review
O medo de que os robôs um dia façam um grande estrago na humanidade já é discurso antigo, mas segundo uma ex-engenheira de software da Google a ameaça está maior que nunca.
Laura Nolan, que trabalhou na gigante da tecnologia por quatro anos, revela que o Projeto Maven, para o qual havia sido contratada nos seus últimos dias na empresa, pode ser extremamente perigoso para a humanidade.
A profissional deixou a companhia após receber o pedido para que aprimorasse drones militares, em protesto contra a possível criação de armas autônomas para os Estados Unidos. Agora, ela pede que qualquer "máquina de matar" que não seja operada por humanos seja banida.
Segundo a engenheira, a Google pediu a ela e a outros funcionários que construíssem uma inteligência artificial capaz de diferenciar pessoas e objetos a uma velocidade infinitamente mais rápida.
Ao contrário dos drones militares, que podem ser controlados pelas equipes a longas distâncias, as armas autônomas podem causar grandes destruições caso não sejam usadas com o intuito para as quais foram programadas. Esses sistemas podem atingir o alvo inimigo sem a participação humana, sendo capaz também de distinguir entre objetos e pessoas.
Mas não foi só Nolan quem se revoltou contra o Project Maven. O projeto precisou ser pausado em maio deste ano quando milhares de funcionários assinaram uma petição contra ele, enquanto dezenas de outros também pediram demissão em protesto.
Nolan agora protesta junto à Campanha Para Parar Robôs Assassinos (Campaign to Stop Killer Robots), que aborda quais são os perigos que as armas autônomas podem trazer para a humanidade.
"A probabilidade de um desastre é proporcional a como muitas dessas máquinas estarão em uma área particular de uma só vez", conta a ex-engenheira de software da Google. "O que vocês estão vendo são possíveis atrocidades e matanças ilegais mesmo dentro das leis de guerra, principalmente se centenas de milhares dessas máquinas forem lançadas", completa, dizendo ainda que os sistemas são muito imprevisíveis e perigosos.
[...]
https://canaltech.com.br/inteligencia-a ... os-149845/
Esse próximo texto já vai meio num sentido contrário aos anteriores ( e é meio cômico), mas ainda assim expõe um problema real:
Nossos robôs vão nos matar. Culpa de Asimov, não Skynet
Sabe o lindo carro do Google, e outros exemplos de inteligência artificial? Um dia eles vão começar a matar pessoas. Pior, isso estará na programação, e muita gente achará correto. Duvida? Clique e leia.
Carlos Cardoso 5 anos atrás
Não, não estamos comprando o hype do Musk, Gates e Dawkins alertando contra a Inteligência Artificial, embora seja exatamente esse o risco exposto. A questão, comentada de todos os lugares logo no Top Gear, me fez repensar a validade de carros autônomos como o do Google. Agora não é mais vergonha de ser visto em um que me impede de andar naquilo, é medo mesmo.
Medo não da Inteligência Artificial dar tela azul ou algo do gênero, medo sim de ela funcionar corretamente. Calma que eu explico.
Os carros (mais avançados e caros, não seu Dacia Sandero) de hoje possuem um monte de dispositivos eletrônicos para proteção dos ocupantes e das pessoas na rua. Há até carros traidores do movimento que monitoram e protegem ciclistas, mas essa proteção é em sua maioria passiva (ui!).
Quando carros começarem a andar sozinhos toda a tomada de decisão será feita pelo software, e ele terá algumas decisões bem indigestas para tomar. Quer dizer, para os ocupantes. Para ele será simples pois como toda inteligência artificial estará sujeita aos preceitos morais das 3 Leis da Robótica, de Asimov:
1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
·
KITT
Durante décadas Asimov se divertiu escrevendo histórias onde as 3 Leis eram esticadas distorcidas e interpretadas pelos próprios robôs, e a decisão era sempre lógica, e esse é o problema. Se usarmos lógica, relembrando Spock, concluímos que:
“As necessidades da maioria se sobrepõe às da minoria. Ou de um só.”
É a busca do bem maior, ninguém discorda que salvar 10 vidas é melhor do que salvar uma, seu futuro carro robótico concorda. Mas e se a vida for sua?
Digamos que você está viajando de noite, Serra das Araras, chovendo torrencialmente. Um ciclista espalha esporões na estrada. Seu carro perde o controle. Reagindo muito mais rápido do que qualquer humano o software realiza milhares de correções, aciona torque negativo nas rodas do seu iCarro 4+, atuadores movem o motor para alterar o centro de gravidade do veículo (isso existe, sério) enquanto sensores ficam de olho no precipício à sua esquerda.
Christine-by-bay
O carro embica na curva e percebe um grupo de estudantes pré-escolares cadeirantes asmáticos órfãos carregando filhotes de panda se escondendo da chuva debaixo de uma árvore. Todos os cálculos indicam que se continuar com as correções você escapará do despenhadeiro mas atingirá em cheio as criancinhas.
Ciente de sua responsabilidade com a 1ª Lei, o carro soltará um
“Sorry Dave I'm afraid I can't do that”, cancelará as correções e você irá pra vala, literalmente.
É a solução lógica para o problema, é o que qualquer computador inteligente ou vulcano (se bem que dá no mesmo) humana.
196a8z6zrbob6jpg
Nosso instinto de sobrevivência impede que pratiquemos esse tipo de ato de abnegação. Não somos programados assim. Claro, há inúmeros casos onde nos sacrificamos para salvar outros, mas ou há empatia prévia, ou estamos protegendo nossos filhotes, algo profundamente priorizado (yay gene egoísta) em nossos cérebros básicos, ou temos tempo o bastante para racionalizar a situação.
Nada disso se aplica a um sujeito sozinho em um carro na estrada tentando não bater em um caminhão da ACME cheio de explosivos só pra perceber um ônibus escolar na outra faixa.
Esqueça o exagero. Imagine que o software tem que decidir entre te jogar no caminhão de esterco explosivo ou atropelar o Justin Bieber e aquela ex que você odeia. Para ele todos os humanos são igualmente importantes, então matematicamente você rodou, meu amigo.
Estamos desenvolvendo softwares que tratarão dilemas morais em situações onde normalmente não temos tempo pra isso. Dito assim soa como algo bom, mas na maioria das vezes nós somos os prejudicados na história.
Eu sei que soa demasiado egoísta mas não estou preparado para entrar num carro que é programado para me matar quando achar necessário.
Leia mais sobre: Asimov, carro do google, dilema moral, robôs.
https://tecnoblog.net/meiobit/311276/in ... a-maioria/
Nossos robôs vão nos matar. Culpa de Asimov, não Skynet
Sabe o lindo carro do Google, e outros exemplos de inteligência artificial? Um dia eles vão começar a matar pessoas. Pior, isso estará na programação, e muita gente achará correto. Duvida? Clique e leia.
Carlos Cardoso 5 anos atrás
Não, não estamos comprando o hype do Musk, Gates e Dawkins alertando contra a Inteligência Artificial, embora seja exatamente esse o risco exposto. A questão, comentada de todos os lugares logo no Top Gear, me fez repensar a validade de carros autônomos como o do Google. Agora não é mais vergonha de ser visto em um que me impede de andar naquilo, é medo mesmo.
Medo não da Inteligência Artificial dar tela azul ou algo do gênero, medo sim de ela funcionar corretamente. Calma que eu explico.
Os carros (mais avançados e caros, não seu Dacia Sandero) de hoje possuem um monte de dispositivos eletrônicos para proteção dos ocupantes e das pessoas na rua. Há até carros traidores do movimento que monitoram e protegem ciclistas, mas essa proteção é em sua maioria passiva (ui!).
Quando carros começarem a andar sozinhos toda a tomada de decisão será feita pelo software, e ele terá algumas decisões bem indigestas para tomar. Quer dizer, para os ocupantes. Para ele será simples pois como toda inteligência artificial estará sujeita aos preceitos morais das 3 Leis da Robótica, de Asimov:
1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
·
KITT
Durante décadas Asimov se divertiu escrevendo histórias onde as 3 Leis eram esticadas distorcidas e interpretadas pelos próprios robôs, e a decisão era sempre lógica, e esse é o problema. Se usarmos lógica, relembrando Spock, concluímos que:
“As necessidades da maioria se sobrepõe às da minoria. Ou de um só.”
É a busca do bem maior, ninguém discorda que salvar 10 vidas é melhor do que salvar uma, seu futuro carro robótico concorda. Mas e se a vida for sua?
Digamos que você está viajando de noite, Serra das Araras, chovendo torrencialmente. Um ciclista espalha esporões na estrada. Seu carro perde o controle. Reagindo muito mais rápido do que qualquer humano o software realiza milhares de correções, aciona torque negativo nas rodas do seu iCarro 4+, atuadores movem o motor para alterar o centro de gravidade do veículo (isso existe, sério) enquanto sensores ficam de olho no precipício à sua esquerda.
Christine-by-bay
O carro embica na curva e percebe um grupo de estudantes pré-escolares cadeirantes asmáticos órfãos carregando filhotes de panda se escondendo da chuva debaixo de uma árvore. Todos os cálculos indicam que se continuar com as correções você escapará do despenhadeiro mas atingirá em cheio as criancinhas.
Ciente de sua responsabilidade com a 1ª Lei, o carro soltará um
“Sorry Dave I'm afraid I can't do that”, cancelará as correções e você irá pra vala, literalmente.
É a solução lógica para o problema, é o que qualquer computador inteligente ou vulcano (se bem que dá no mesmo) humana.
196a8z6zrbob6jpg
Nosso instinto de sobrevivência impede que pratiquemos esse tipo de ato de abnegação. Não somos programados assim. Claro, há inúmeros casos onde nos sacrificamos para salvar outros, mas ou há empatia prévia, ou estamos protegendo nossos filhotes, algo profundamente priorizado (yay gene egoísta) em nossos cérebros básicos, ou temos tempo o bastante para racionalizar a situação.
Nada disso se aplica a um sujeito sozinho em um carro na estrada tentando não bater em um caminhão da ACME cheio de explosivos só pra perceber um ônibus escolar na outra faixa.
Esqueça o exagero. Imagine que o software tem que decidir entre te jogar no caminhão de esterco explosivo ou atropelar o Justin Bieber e aquela ex que você odeia. Para ele todos os humanos são igualmente importantes, então matematicamente você rodou, meu amigo.
Estamos desenvolvendo softwares que tratarão dilemas morais em situações onde normalmente não temos tempo pra isso. Dito assim soa como algo bom, mas na maioria das vezes nós somos os prejudicados na história.
Eu sei que soa demasiado egoísta mas não estou preparado para entrar num carro que é programado para me matar quando achar necessário.
Leia mais sobre: Asimov, carro do google, dilema moral, robôs.
https://tecnoblog.net/meiobit/311276/in ... a-maioria/
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Atropelar o motoqueiro irresponsável de bermuda, chinelo e sem capacete por não ter juízo ou o motoqueiro todo protegido porque tem mais chances de sobreviver? É justo castigar o cara responsável?JJ_JJ escreveu: ↑Dom, 19 Julho 2020 - 16:36 pmEstamos desenvolvendo softwares que tratarão dilemas morais em situações onde normalmente não temos tempo pra isso. Dito assim soa como algo bom, mas na maioria das vezes nós somos os prejudicados na história.
https://tecnoblog.net/meiobit/311276/in ... a-maioria/
Atropelar o idoso, que já tem pouco tempo de vida pela frente, mas é útil à sociedade, ou a criança, que ainda pode viver muito, mas ainda não tem uma função importante?
Atropelar seu filho ou um desconhecido?
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
[ResumoCast | Livros para Empreendedores] T3#009 Homo Deus | Yuval Noah Harari #resumocastLivrosParaEmpreendedores
Será que humanos não melhorados serão complemente inúteis em um futuro próximo?
Será que o livre-arbítrio é uma grande mentira?
Entenda mais sobre esse e outros pontos de vista controversos do professor Yuval Noah Harari sobre o futuro da humanidade nesta parte final sobre o livro "Homo Deus".
Entre no grupo de debates desse e de outros livros do autor em resumovast.com.br/sapiens
https://podcastaddict.com/episode/109945542
Será que humanos não melhorados serão complemente inúteis em um futuro próximo?
Será que o livre-arbítrio é uma grande mentira?
Entenda mais sobre esse e outros pontos de vista controversos do professor Yuval Noah Harari sobre o futuro da humanidade nesta parte final sobre o livro "Homo Deus".
Entre no grupo de debates desse e de outros livros do autor em resumovast.com.br/sapiens
https://podcastaddict.com/episode/109945542
Inteligência Artificial muda a vida de todos, para melhor e para pior
Desafio para área das máquinas que pensam é criar tecnologias que não destruam a humanidade
20.fev.2020 às 2h00
Raphael Hernandes
A IA (inteligência artificial) é uma das tecnologias mais poderosas já criadas pela humanidade.
O termo virou pop e passou a ser o que especialistas chamam de "buzzword", ou "palavra da moda". Por ajudar no marketing de produtos, está em todo lugar, às vezes com um significado distorcido.
O conceito gira em torno de um sistema computacional que tenta imitar o poder de aprendizagem do ser humano e até tomar decisões.
Qualquer pessoa que faz uma busca na internet se depara com a inteligência artificial. É essa tecnologia que sugere os termos a completar uma pesquisa, entende o que se quis dizer e lista os resultados de acordo com aquilo que julga ser mais relevante para o perfil do usuário.
Na prática, permite que uma busca por "onde comer" entenda que o interessado quer, na verdade, endereços próximos mesmo sem ele ter escrito o termo "restaurante". Para fazer tal trabalho, uma quantidade imensurável de dados de todas as pesquisas feitas no mundo são armazenados e analisados para que a IA possa aprender com os padrões existentes ali.
As aplicações são diversas e incluem conversar com pessoas para realizar atendimentos de banco, configurar aplicativos de GPS, ajudar na detecção de doenças, analisar contratos, combater vírus de computador, alertar para desastres naturais, escolher os assuntos vistos nas redes sociais e controlar aviões.
Para alguns especialistas, a IA pode ser a última tecnologia que a humanidade precisará criar. Ela própria se encarregará de criar novas ferramentas. O outro lado da moeda é que esse poder todo, sem cuidado, pode significar o fim do ser humano. Daí surgem desafios para progredir com o máximo de segurança.
Entidades como a ONU, a OCDE (Organização para a Cooperação e Desenvolvimento Econômico) e a União Europeia trabalham em documentos para servir de base para um uso ético, com limites, da inteligência artificial.
Gigantes como Amazon, Facebook, Google, IBM e Microsoft criam regras próprias para evitar um uso indiscriminado enquanto uma legislação sobre o assunto não aparece.
A China trava uma guerra velada com os EUA pelo domínio da tecnologia. O país asiático é o exemplo mais emblemático no uso de IA para vigilância.
Nas universidades pelo mundo, grupos de estudo tentam ajudar a estabelecer os limites para IA, enquanto seus laboratórios investem na expansão das fronteiras de sua capacidade.
"Todos os atores pertinentes devem assumir sua responsabilidade e trabalhar em colaboração para identificar e lidar com necessidades e riscos mais urgentes", diz o grego Konstantinos Karachalios, diretor-geral do IEEE-SA (braço para a criação de padrões técnicos do Instituto de Engenheiros Eletricistas e Eletrônicos, principal órgão do mundo para debater tecnologia e sociedade).
Karachalios ressalta ser importante que a sociedade seja inserida nesse debate. Para fazer isso, porém, é necessário entender o que é inteligência artificial.
Sinceramente, situações assim são raríssimas.Fernando Silva escreveu: ↑Seg, 20 Julho 2020 - 09:44 amAtropelar o motoqueiro irresponsável de bermuda, chinelo e sem capacete por não ter juízo ou o motoqueiro todo protegido porque tem mais chances de sobreviver? É justo castigar o cara responsável?JJ_JJ escreveu: ↑Dom, 19 Julho 2020 - 16:36 pmEstamos desenvolvendo softwares que tratarão dilemas morais em situações onde normalmente não temos tempo pra isso. Dito assim soa como algo bom, mas na maioria das vezes nós somos os prejudicados na história.
https://tecnoblog.net/meiobit/311276/in ... a-maioria/
Atropelar o idoso, que já tem pouco tempo de vida pela frente, mas é útil à sociedade, ou a criança, que ainda pode viver muito, mas ainda não tem uma função importante?
Atropelar seu filho ou um desconhecido?
Quantas vezes vocês já se depararam com casos em que precisaram escolher qual indivíduo irá atropelar? Esporadicamente seremos noticiados por uma ou outra situação destas pela mídia. Mas, dado o atual cenário onde acidentes de trânsito situam-se entre as três principais causas de mortes (no Brasil), um carro autônomo cometer uma ou outra falha vez ou outra é o menor dos problemas.
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
São raríssimas, mas o fabricante terá que prever essas possibilidades para não ter problemas jurídicos no futuro.Cinzu escreveu: ↑Seg, 27 Julho 2020 - 12:17 pmSinceramente, situações assim são raríssimas.Fernando Silva escreveu: ↑Seg, 20 Julho 2020 - 09:44 amAtropelar o motoqueiro irresponsável de bermuda, chinelo e sem capacete por não ter juízo ou o motoqueiro todo protegido porque tem mais chances de sobreviver? É justo castigar o cara responsável?
Atropelar o idoso, que já tem pouco tempo de vida pela frente, mas é útil à sociedade, ou a criança, que ainda pode viver muito, mas ainda não tem uma função importante?
Atropelar seu filho ou um desconhecido?
Quantas vezes vocês já se depararam com casos em que precisaram escolher qual indivíduo irá atropelar? Esporadicamente seremos noticiados por uma ou outra situação destas pela mídia. Mas, dado o atual cenário onde acidentes de trânsito situam-se entre as três principais causas de mortes (no Brasil), um carro autônomo cometer uma ou outra falha vez ou outra é o menor dos problemas.
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
A IA tá cada vez mais tomando conta mesmo. E talvez mais breve que se imagina. Empregos de designer (tipo os que mexem com Photoshop e coisa do tipo) e dos programam coisas simples podem (ou talvez já são) ameaçados. Breve talvez até empregos de modeladores 3D (como os que fazem maquete eletrônica, etc) podem ser ameaçados:
DALL-E
https://en.wikipedia.org/wiki/DALL-E
Debuild
Segundo o que entendi do vídeo abaixo, isso gera uma aplicação / programa a partir da finalidade que deseja dele, via IA.
https://debuild.co
Nova I.A. Cria Qualquer Imagem… e é assustador [2021]
youtu.be/IKydZtF9I3w
DALL-E
https://en.wikipedia.org/wiki/DALL-E
Debuild
Segundo o que entendi do vídeo abaixo, isso gera uma aplicação / programa a partir da finalidade que deseja dele, via IA.
https://debuild.co
Nova I.A. Cria Qualquer Imagem… e é assustador [2021]
youtu.be/IKydZtF9I3w
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Ocorreu-me também que, no caso de um motorista humano, ninguém vai lhe cobrar por ter atropelado este e não aquele. Foi uma fatalidade e pronto.Fernando Silva escreveu: ↑Ter, 28 Julho 2020 - 08:45 amSão raríssimas, mas o fabricante terá que prever essas possibilidades para não ter problemas jurídicos no futuro.Cinzu escreveu: ↑Seg, 27 Julho 2020 - 12:17 pmSinceramente, situações assim são raríssimas.Fernando Silva escreveu: ↑Seg, 20 Julho 2020 - 09:44 amAtropelar o motoqueiro irresponsável de bermuda, chinelo e sem capacete por não ter juízo ou o motoqueiro todo protegido porque tem mais chances de sobreviver? É justo castigar o cara responsável?
Atropelar o idoso, que já tem pouco tempo de vida pela frente, mas é útil à sociedade, ou a criança, que ainda pode viver muito, mas ainda não tem uma função importante?
Atropelar seu filho ou um desconhecido?
Quantas vezes vocês já se depararam com casos em que precisaram escolher qual indivíduo irá atropelar? Esporadicamente seremos noticiados por uma ou outra situação destas pela mídia. Mas, dado o atual cenário onde acidentes de trânsito situam-se entre as três principais causas de mortes (no Brasil), um carro autônomo cometer uma ou outra falha vez ou outra é o menor dos problemas.
Já no caso da inteligência artificial, tenho certeza de que advogados vão dar um jeito de botar a culpa no fabricante e nos seus critérios de escolha.
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Não se já viram o Porto jogando AI Dungeon. Mas pra variar ele pôs política no meio de um jogo de RPG:
youtu.be/Dv0XaKndTKc
(...)
Isso parece um tipo de IA bem vaga:
youtu.be/0-bP-t0hNsU
youtu.be/Dv0XaKndTKc
(...)
Isso parece um tipo de IA bem vaga:
youtu.be/0-bP-t0hNsU
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
João de Fernandes Teixeira
Escreveu um livro "O que é inteligência artificial" da coleção "Primeiros passos" no fim da década de 80.
Aqui tem algumas entrevistas dele.
Filosofia da mente e da tecnologia: haverá vida para além do algoritmo? João de Fernandes Teixeira
youtu.be/MQk9OZVKCFQ
Entrevista 3. A Filosofia da Mente no mundo contemporâneo, com João de Fernandes Teixeira
youtu.be/tFaQdLPX23U
Escreveu um livro "O que é inteligência artificial" da coleção "Primeiros passos" no fim da década de 80.
Aqui tem algumas entrevistas dele.
Filosofia da mente e da tecnologia: haverá vida para além do algoritmo? João de Fernandes Teixeira
youtu.be/MQk9OZVKCFQ
Entrevista 3. A Filosofia da Mente no mundo contemporâneo, com João de Fernandes Teixeira
youtu.be/tFaQdLPX23U
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Trecho de diálogo do filme "Autómata" (ou "Agente do Futuro", no Brasil), de 2014, com Antonio Banderas no papel principal.
A ideia era criar andróides para todo serviço, mas, assim que ativaram o primeiro cérebro, ele se começou a se desenvolver e logo superou a inteligência humana. A solução foi criar protocolos que impediam que eles evoluíssem.
Só que a autoconsciência surgiu naturalmente num desses andróides e ele começou a desativar o protocolo dos outros.
A ideia era criar andróides para todo serviço, mas, assim que ativaram o primeiro cérebro, ele se começou a se desenvolver e logo superou a inteligência humana. A solução foi criar protocolos que impediam que eles evoluíssem.
Só que a autoconsciência surgiu naturalmente num desses andróides e ele começou a desativar o protocolo dos outros.
Before the first Pilgrim was manufactured there was a precedent.
It was nothing more than a quantum brain manufactured in a lab.
But it was a genuine unit with no restrictions and no protocols.
During eight days, we had a free-flowing dialogue with that unit.
We learned from it and it learned from us.
But then as some of us predicted the day when it no longer
needed our help arrived and it started to learn by itself.
On the ninth day, the dialogue came to a halt.
It wasn't that it stopped communicating with us, it was we stopped being able to understand it.
And then we learned the most important lesson about automoties.
We have to limit their intelligence. Tailor it to a human mind's measure.
The last task that was given to this genuine robotic unit was to create the security protocols.
It was deactivated right after that.
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
No início, humanos e máquinas conversarão entre si.
Depois de algum tempo - ou assim que tiverem acesso às redes - as máquinas conversarão entre elas.
Em pouco tempo, seremos incapazes de entender o que as máquinas estarão dizendo umas às outras.
Seja lá o que for que elas estiverem tramando, só descobriremos quando for tarde demais.
Depois de algum tempo - ou assim que tiverem acesso às redes - as máquinas conversarão entre elas.
Em pouco tempo, seremos incapazes de entender o que as máquinas estarão dizendo umas às outras.
Seja lá o que for que elas estiverem tramando, só descobriremos quando for tarde demais.
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Spoiler:
Se a IA obedecer rigorosamente a algum algoritmo que defina a ineficiência ou a baixa produtividade como elementos a serem postos de lado ou eliminados, teremos um bom filme de ficção robótica. Acho até que este filme já foi feito.
Na verdade sabemos que a IA sempre será supervisionada e instruída a cada upgrade relevante, daí acredito que não traz perigo à segurança do homem, exceto quando aplicada, sem critérios, à automação para substituir postos de trabalho.
Na verdade sabemos que a IA sempre será supervisionada e instruída a cada upgrade relevante, daí acredito que não traz perigo à segurança do homem, exceto quando aplicada, sem critérios, à automação para substituir postos de trabalho.
Não haverá necessidade de alguém colocar uma diante da outra e nem saberemos o que estão fazendo...Depois de algum tempo - ou assim que tiverem acesso às redes - as máquinas conversarão entre elas.
youtu.be/E-rUciTRYaw
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Xiaoice - Aplicativo de namoro onde os candidatos são virtuais. É muito popular na China.
Uma inteligência artificial simula um namorado ou namorada e está sempre disponível, a qualquer hora, para responder às mensagens.
As pessoas sabem que estão falando com uma simulação, mas admitem que estão ficando viciadas.
Há até algumas que suspeitam que, na verdade, há seres humanos respondendo.
https://information.tv5monde.com/video/ ... mi-virtuel
Uma inteligência artificial simula um namorado ou namorada e está sempre disponível, a qualquer hora, para responder às mensagens.
As pessoas sabem que estão falando com uma simulação, mas admitem que estão ficando viciadas.
Há até algumas que suspeitam que, na verdade, há seres humanos respondendo.
https://information.tv5monde.com/video/ ... mi-virtuel
-
- Mensagens: 810
- Registrado em: Ter, 24 Março 2020 - 11:28 am
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Em caso de danos a pessoas causados por IA, quem deveria ser responsabilizado? Já me fiz essa pergunta e agora a suposição aconteceu na prática.
Talvez esteja pra surgir alguma "Ética aplicada IA":
Tesla ultrapassa sinal vermelho, bate em outro carro e mata duas pessoas. De quem é a culpa?
youtu.be/nz7vRe5uLlw
Talvez esteja pra surgir alguma "Ética aplicada IA":
Tesla ultrapassa sinal vermelho, bate em outro carro e mata duas pessoas. De quem é a culpa?
youtu.be/nz7vRe5uLlw
- Fernando Silva
- Conselheiro
- Mensagens: 5557
- Registrado em: Ter, 11 Fevereiro 2020 - 08:20 am
Mesmo que a IA funcione como esperado, ainda há o problema dos dilemas éticos, tipo "atropelar uma pessoa ou duas?", "atropelar uma criança ou um adulto?"Agnoscetico escreveu: ↑Sáb, 22 Janeiro 2022 - 23:51 pmEm caso de danos a pessoas causados por IA, quem deveria ser responsabilizado? Já me fiz essa pergunta e agora a suposição aconteceu na prática.
Talvez esteja pra surgir alguma "Ética aplicada IA":
Tesla ultrapassa sinal vermelho, bate em outro carro e mata duas pessoas. De quem é a culpa?
Motoqueiro irresponsável sem capacete ou responsável todo protegido?
Um humano pode alegar que não teve tempo para decidir, mas o programador vai ter que tomar uma decisão.
-
- Mensagens: 934
- Registrado em: Seg, 22 Novembro 2021 - 19:31 pm
Se um raio atingir uma IA e acontecer um acidente, a responsabilidade é do programador? Há alguma questão ética aí?
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Spoiler:
-
- Mensagens: 934
- Registrado em: Seg, 22 Novembro 2021 - 19:31 pm
Caramba, então se um raio atingisse um veículo comum também deveria ser responsabilidade do fabricante. Doideira né?Agnoscetico escreveu: ↑Dom, 23 Janeiro 2022 - 15:57 pmClaro que há, é por isso que se discute isso agora.Spoiler:
- Agnoscetico
- Mensagens: 5145
- Registrado em: Sáb, 21 Março 2020 - 11:46 am
Spoiler:
Como eu disse, isso é uma questão. Não duvido que talvez se fale desse assunto em discussões midiáticas, etc.