Você não teria coragem de desligar uma inteligência artificial consciente e isso pode ser um problema

No episódio “Jornada nas Estrelas: A Nova Geração”, “O Valor de um Homem“, Data, um membro andróide da tripulação da Enterprise, deve ser desmontado para fins de pesquisa, a menos que o Capitão Picard possa argumentar que Data merece os mesmos direitos que um ser humano. Naturalmente surge a pergunta: qual é a base sobre a qual algo tem direitos? O que confere posição moral a uma entidade?

O filósofo Peter Singer argumenta que criaturas que podem sentir dor ou sofrer têm direito a uma posição moral. Ele argumenta que os animais não humanos têm posição moral, uma vez que podem sentir dor e sofrer. Limitá-lo às pessoas seria uma forma de especismo, algo semelhante ao racismo e sexismo.

Sem endossar a linha de raciocínio de Singer, podemos nos perguntar se essa noção poderia ser estendida ainda mais a um robô andróide como Data. Isso exigiria que Data pudesse sentir dor ou sofrer. E como você responde a isso depende de como você entende a consciência e a inteligência.

À medida que a tecnologia de inteligência artificial real avança em direção às versões imaginadas de Hollywood, a questão da posição moral se torna mais importante. Se os IAs têm uma posição moral, raciocinam filósofos como eu, isso poderia resultar que eles têm direito à vida. Isso significa que você não pode simplesmente desmontá-los e também pode significar que as pessoas não devem interferir na busca de seus objetivos.

Dois sabores de inteligência e um teste

A máquina de xadrez Deep Blue da IBM foi treinada com sucesso para derrotar o grande mestre Gary Kasparov. Mas nãofazia mais nada. Este computador tinha o que é chamado de inteligência de domínio específico.

Por outro lado, existe o tipo de inteligência que permite a capacidade de fazer as coisas bem uma variedade de atribuições. É chamada de inteligência de domínio geral. É o que permite às pessoas cozinhar, esquiar e criar filhos – tarefas que estão relacionadas, mas são muito diferentes.

Inteligência geral artificial, IGA, é o termo para máquinas que possuem inteligência de domínio geral. Indiscutivelmente, nenhuma máquina ainda demonstrou esse tipo de inteligência. Neste ano, uma startup chamada OPENAI lançou uma nova versão de seu modelo de linguagem de Pré-treinamento Gerativo. GPT-3 é um sistema de processamento de linguagem natural, treinado para ler e escrever de forma que possa ser facilmente compreendido pelas pessoas.

Chamou atenção imediatamente, não apenas por causa de sua capacidade impressionante de imitar floreios estilísticos e reunir conteúdo plausível, mas também por causa de quão mais avançado que era em comparação a uma versão anterior. Apesar deste desempenho impressionante, o GPT-3 não sabe nada além de unir palavras de várias maneiras. IGA permanece bastante distante.

Nomeado em homenagem ao pesquisador pioneiro de IA Alan Turing, o teste de Turing ajuda a determinar quando uma IA é inteligente. Uma pessoa conversando com uma IA oculta pode dizer se é uma IA ou um ser humano? Se ele não puder, para todos os efeitos práticos, a IA é inteligente. Mas este teste não diz nada sobre se a IA pode estar consciente.

Dois tipos de consciência

A consciência tem duas partes. Em primeiro lugar, há o aspecto “como é para mim” de uma experiência, a parte sensorial da consciência. Os filósofos chamam isso de consciência fenomenal. É sobre como você experimenta um fenômeno, como cheirar uma rosa ou sentir dor.

Em contraste, também há acesso à consciência. É a capacidade de relatar, raciocinar, se comportar e agir de maneira coordenada e responsiva aos estímulos com base em metas. Por exemplo, quando passo a bola de futebol para meu amigo que faz uma jogada para o gol, estou respondendo a estímulos visuais, agindo desde o treinamento anterior e perseguindo um objetivo determinado pelas regras do jogo. Eu faço o passe automaticamente, sem deliberação consciente, no fluxo do jogo.

Pessoas que possuem “visão-as-cegas” ilustram bem a diferença entre os dois tipos de consciência. Alguém com essa condição neurológica pode relatar, por exemplo, que não consegue ver nada no lado esquerdo do campo visual. Mas, se solicitados a pegar uma caneta em uma série de objetos no lado esquerdo do campo visual, eles fazem isso com segurança. Eles não podem ver a caneta, mas podem pegá-la quando solicitados – um exemplo de acesso à consciência sem consciência fenomenal.

O dilema do Data

O andróide Data demonstra que tem autoconsciência na medida em que pode monitorar se, por exemplo, ele está com carga ideal ou se há danos internos em seu braço robótico.

Data também é inteligente no sentido geral. Ele faz muitas coisas distintas com um alto nível de maestria. Ele pode pilotar a Enterprise, receber ordens do Capitão Picard e ponderar com ele sobre o melhor caminho a seguir.

Ele também pode jogar pôquer com seus companheiros, cozinhar, discutir questões atuais com amigos próximos, lutar com inimigos em planetas alienígenas realizar várias formas de trabalho físico. O Data têm acesso à consciência. Ele claramente passaria no teste de Turing.

No entanto, Data muito provavelmente não tem consciência fenomenal – ele, por exemplo, não se delicia com o perfume de rosas ou sente dor. Ele incorpora uma versão superdimensionada do “visão-as-cegas”. Ele é autoconsciente e tem acesso à consciência — pode pegar a caneta — mas em todos os seus sentidos ele carece de consciência fenomenal.

Agora, se Data não sente dor, pelo menos um dos motivos que Singer oferece para dar uma posição moral a uma criatura não é cumprido. Mas Data pode preencher a outra condição de ser capaz de sofrer, mesmo sem sentir dor. O sofrimento pode não exigir consciência fenomenal da mesma forma que a dor essencialmente exige.

Por exemplo, o que aconteceria se sofrimento também fosse definido como a ideia de ser impedido de buscar uma causa justa sem causar danos a outras pessoas? Suponha que o objetivo de Data seja salvar sua companheira de tripulação, mas ele não pode alcançá-la por causa de um dano em um de seus membros. A redução funcional de Data que o impede de salvar sua companheira de tripulação é um tipo de sofrimento não fenomenal. Ele teria preferido salvar o companheiro de tripulação e estaria melhor se o fizesse.

No episódio, a questão acaba não se assentando em se Data é autoconsciente, isso não está em dúvida. Nem está em questão se ele é inteligente, ele facilmente demonstra que é no sentido geral. O que não está claro é se ele é fenomenalmente consciente. O Data não é desmontado porque, no final, seus juízes humanos não conseguem concordar sobre a importância da consciência para a posição moral.

Uma IA deve ter uma posição moral?

Data é gentil, ele age para apoiar o bem-estar de seus companheiros de tripulação e daqueles que encontra em planetas alienígenas. Ele obedece às ordens das pessoas e parece improvável que as prejudique, além de proteger sua própria existência. Por essas razões, ele parece pacífico e mais fácil de aceitar no reino das coisas que têm posição moral.

Mas e quanto à Skynet nos filmes “O Exterminador do Futuro”? Ou as preocupações recentemente expressas por Elon Musk sobre a IA ser mais perigosa do que armas nucleares, e por Stephen Hawking sobre a IA acabar com a humanidade?

Os seres humanos não perdem sua reivindicação de ter um posição moral apenas porque agem contra os interesses de outra pessoa. Da mesma forma, você não pode dizer automaticamente que só porque uma IA age contra os interesses da humanidade ou outra IA, ela não tem posição moral. Você pode ter razão em lutar contra uma IA como a Skynet, mas isso não tira sua posição moral. Se a posição moral é dada em virtude da capacidade de sofrer de forma não fenomenal, então a Skynet e Data a terão, mesmo que apenas Data queira ajudar os seres humanos.

Ainda não existem máquinas de inteligência geral artificial. Mas agora é a hora de considerar o que seria necessário para conceder-lhes uma posição moral. O modo como a humanidade escolhe responder à questão da posição moral de criaturas não biológicas terá grandes implicações em como lidamos com IAs futuras – sejam gentis e úteis como Data, ou destruidoras, como a Skynet.

Este artigo foi originalmente publicado no The Conversation por Anand Vaidya, professor de Filosofia da San José State University. Leia o artigo original aqui.

…………………………………………………………………………………..
*Fonte: hypescience

O negócio do medo, de acordo com Zygmunt Bauman

“ A economia de consumo depende da produção dos consumidores, e os consumidores que devem ser produzidos para o consumo de produtos ‘anti-medo’ devem ser amedrontados e amedrontados, enquanto também esperam que os perigos que eles tanto temem possam ser forçados a que se retirem e que eles próprios sejam capazes de forçá-los a tal, com a ajuda paga do bolso, obviamente ” , escreveu o sociólogo Zygmunt Bauman.

No cenário moderno, onde a “ luta contra os medos acabou se tornando uma tarefa para toda a vida, enquanto os perigos que desencadeiam esses medos passaram a ser vistos como companheiros permanentes e inseparáveis ​​da vida humana ”, temos que examinar nossos medos com um senso crítico extraordinário ou, caso contrário, acabaremos sendo seus reféns, engolidos e manipulados por aqueles monstros das sombras que parecem surgir por toda parte.

Em uma sociedade hiperconectada, os medos se multiplicam

No passado, a notícia se espalhava muito lentamente. Muitas vezes foram até mesmo relegados ao local onde ocorreram. Hoje, com a Internet, sabemos imediatamente o que aconteceu do outro lado do mundo. Esse imediatismo e interconexão são positivos, mas também contêm uma armadilha. A armadilha de ver perigos em todos os lugares. Sentindo-se permanentemente inseguro. Sempre esperando que o que aconteceu do outro lado do mundo seja replicado em nosso ambiente mais próximo.

Dessa forma, acabamos mergulhando no que Bauman chamou de ” uma batalha prolongada e invencível contra o efeito potencialmente incapacitante dos medos contra os perigos genuínos e putativos que nos fazem temer “. Tememos não apenas os perigos reais que nos ameaçam em nossa vida diária, mas também perigos mais difusos e distantes que podem nunca chegar.

Nas garras daquele sentimento de apreensão que nos condena a um estado de alarme permanente em que sentimos que não podemos baixar a guarda por um minuto, não temos escolha a não ser mergulhar em uma ” busca contínua e prova perpétua de estratagemas e recursos que permitir afastar, mesmo que temporariamente, a iminência de perigos; ou melhor, que nos ajudem a deslocar a preocupação em nós mesmos para um canto de nossa consciência de modo que permaneça esquecido o resto do tempo ”.

Para isso recorremos a todo o tipo de estratagemas. No entanto, existe a contradição de que quanto ” mais profundos eles são, mais ineficazes e menos conclusivos são seus efeitos “. Porque, na realidade, as estratégias que aplicamos para afastar nossos medos têm apenas um efeito muito limitado: elas ocultam os medos por um tempo, até que a próxima notícia os reative.

Quando o medo é difuso, incerto e se estende a praticamente qualquer esfera de nossa vida, ele se torna um inimigo difícil de vencer. Então se torna o “negócio do medo”.

Preso no labirinto de medos improváveis

Sabemos que o futuro será diferente, embora não saibamos bem como ou em que medida. Também sabemos que a qualquer momento pode ser rompida a frágil continuidade entre o presente e o futuro que nos faz sentir tão seguros.

A incerteza do futuro faz com que ” nos preocupemos apenas com as consequências das quais podemos tentar nos livrar “. Concentramo-nos apenas nos riscos que podemos prever e calcular. E esses riscos são freqüentemente aqueles que a mídia enfatiza ad nauseam.

Como disse Milan Kundera, “ o palco de nossas vidas está envolto em uma névoa – não na escuridão total – na qual não vemos nada e não somos capazes de nos mover. No nevoeiro você está livre, mas essa é a liberdade de quem está nas trevas ”.

Podemos ver 30 passos e reagir ao que temos bem na frente de nossos narizes, mas não vemos além. Assim, tentamos prever os perigos mais próximos, conhecidos e próximos. Mas os maiores e mais perigosos, provavelmente os que mais podem nos afetar, não os vemos. Dessa forma, acabamos marginalizando as principais preocupações.

“ Focados no que podemos fazer algo, não temos tempo para nos ocuparmos em refletir sobre coisas sobre as quais nada poderíamos fazer, mesmo que quiséssemos. Isso nos ajuda a preservar nossa sanidade, a remover pesadelos e insônia. O que ela não pode conseguir, no entanto, é que estamos mais seguros ” , disse Bauman.

Assim, acabamos caçando monstros inexistentes, dedicando todos os nossos esforços e energias para nos proteger de riscos improváveis, enquanto nossa mente se desgasta em uma batalha que se perde de antemão. E enquanto mergulhamos nesses medos líquidos, nossa mente racional se desconecta. Porque quando o velho cérebro assume o controle, ocorre um sequestro emocional total que nos impede de ver claramente o que está acontecendo e de compreender que a maioria dos medos que nos dominam são irracionais ou o resultado de um medo derivado .

Nesse estado, é mais fácil vender soluções para “nos proteger” desses medos, soluções que não se limitam ao nível comercial mas vão muito além do sistema de alarme que instalamos em casa para nos sentirmos seguros ou de medicamentos para ansiedade ou insônia. que nos permitem esquecer por um momento a nossa angústia, mas antes ” aparecem-nos sob a máscara da protecção ou salvaguarda das comunidades “, para sustentar um status quo que convenientemente nos mantém dentro dos estreitos limites impostos pelo medo.

E assim caímos no ciclo do medo líquido referido por Bauman, um medo que está em toda parte, convenientemente nutrido, mas impossível de erradicar porque se autoperpetua. A menos que façamos um ato de consciência e compreendamos que esses medos são tão irracionais e seus riscos tão pequenos que podemos nos libertar deles para viver plenamente a única vida que temos.

*Zygmunt Bauman

……………………………………………………………………………..
*Fonte: pensarcontemporaneo