Dia: 23 de janeiro, 2021
‘Fake Famous’ explora o mundo dos influenciadores por meio da experiência social
“Mais do que qualquer outra ocupação na Terra, as crianças dizem que querem ser influenciadores famosos”, assim começa o trailer de do novo documentário da HBO.
O filme, dirigido pelo jornalista de tecnologia e correspondente da Vanity Fair, Nick Bilton, explora o culto das celebridades online e das redes sociais por meio de um experimento social. No documentário, três pessoas com poucos seguidores nas redes são escolhidas para se tornarem influenciadores famosos.
Para torná-los “falsos famosos”, uma equipe os ajuda a comprar seguidores e contratar bots para curtir e comentar suas postagens. Eles produzem fotos para parecer que foram tiradas em outro lugar (geralmente mais exótico) e posam em cenários falsos. “O que as pessoas percebem é que na maioria das vezes não é real”, diz uma das fontes especializadas do filme no trailer.
No clipe, vemos o experimento social ganhar força, à medida que as pessoas escolhidas para ser “falsamente famosas” desfrutam de todas as vantagens de ser um influenciador, incluindo ser convidado para eventos de prestígio e ganhar freebies. No entanto, também vemos a luta que inevitavelmente vem com isso – estresse, dissociação e mal-estar – revelando o quão artificiais podem ser os bastidores da vida do influenciador.
No final do trailer, um dos sujeitos está sentado em um cenário feito para parecer um jato particular: “Há tanta coisa que se passa em retratar algo que não está realmente lá”, diz ele. “É um circo completo.”
Fake Famous, estreia na HBO Max e na HBO em 2 de fevereiro.
*Por Julio Moraes
………………………………………………………………………………
*Fonte: updateordie
Cálculos mostram que será impossível controlar uma Inteligência Artificial super inteligente
A ideia da inteligência artificial derrubar a humanidade tem sido discutida por muitas décadas, e os cientistas acabaram de dar seu veredicto sobre se seríamos capazes de controlar uma superinteligência de computador de alto nível. A resposta? Quase definitivamente não.
O problema é que controlar uma superinteligência muito além da compreensão humana exigiria uma simulação dessa superinteligência que podemos analisar. Mas se não formos capazes de compreendê-lo, é impossível criar tal simulação.
Regras como ‘não causar danos aos humanos’ não podem ser definidas se não entendermos o tipo de cenário que uma IA irá criar, sugerem os pesquisadores. Uma vez que um sistema de computador está trabalhando em um nível acima do escopo de nossos programadores, não podemos mais estabelecer limites.
“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô’”, escrevem os pesquisadores.
“Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos que são potencialmente incompreensíveis para os humanos, quanto mais controláveis.”
Parte do raciocínio da equipe vem do problema da parada apresentado por Alan Turing em 1936. O problema centra-se em saber se um programa de computador chegará ou não a uma conclusão e responderá (para que seja interrompido), ou simplesmente ficar em um loop eterno tentando encontrar uma.
Como Turing provou por meio de uma matemática inteligente, embora possamos saber isso para alguns programas específicos, é logicamente impossível encontrar uma maneira que nos permita saber isso para cada programa potencial que poderia ser escrito. Isso nos leva de volta à IA, que, em um estado superinteligente, poderia armazenar todos os programas de computador possíveis em sua memória de uma vez.
Qualquer programa escrito para impedir que a IA prejudique humanos e destrua o mundo, por exemplo, pode chegar a uma conclusão (e parar) ou não – é matematicamente impossível para nós estarmos absolutamente seguros de qualquer maneira, o que significa que não pode ser contido.
“Na verdade, isso torna o algoritmo de contenção inutilizável”, diz o cientista da computação Iyad Rahwan, do Instituto Max-Planck para o Desenvolvimento Humano, na Alemanha.
A alternativa de ensinar alguma ética à IA e dizer a ela para não destruir o mundo – algo que nenhum algoritmo pode ter certeza absoluta de fazer, dizem os pesquisadores – é limitar as capacidades da superinteligência. Ele pode ser cortado de partes da Internet ou de certas redes, por exemplo.
O novo estudo também rejeita essa ideia, sugerindo que isso limitaria o alcance da inteligência artificial – o argumento é que se não vamos usá-la para resolver problemas além do escopo dos humanos, então por que criá-la?
Se vamos avançar com a inteligência artificial, podemos nem saber quando chega uma superinteligência além do nosso controle, tal é a sua incompreensibilidade. Isso significa que precisamos começar a fazer algumas perguntas sérias sobre as direções que estamos tomando.
“Uma máquina superinteligente que controla o mundo parece ficção científica”, diz o cientista da computação Manuel Cebrian, do Instituto Max-Planck para o Desenvolvimento Humano. “Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam.”
“Portanto, surge a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”
A pesquisa foi publicada no Journal of Artificial Intelligence Research.
*Por Ademilson Ramos
……………………………………………………………………………………..
*Fonte: engenhariae