Sponsor

AD BANNER

Últimas Postagens

NOAM CHOMSKY: A FALSA PROMESSA DO CHATGPT



Noam Chomsky: A falsa promessa do ChatGPT

O filósofo Noam Chomsky, o professor de linguística Ian Roberts e o especialista em inteligência artificial (IA) Jeffrey Watumull, mostraram na quarta-feira ((08/03/2023)) seu otimismo sobre os novos avanços nos chats de inteligência artificial, mas, acima de tudo, alertaram sobre seus perigos e sua 'amoralidade'.

Numa coluna de opinião conjunta publicada na última quarta-feira (08/03/2023) no The New York Times, os três intelectuais elogiam os novos programas ChatGPT (OpenAI), Bard (Google) e Bing (Microsoft) pela capacidade de resolução de problemas, mas também pela “preocupação” com esses sistemas que se caracterizam por sua “amoralidade, falsa ciência e incompetência linguística”.
____________________________________________


Jorge Luis Borges escreveu certa vez que viver em um tempo de grande perigo e promessa é experimentar tanto a tragédia quanto a comédia, com “a iminência de uma revelação” na compreensão de nós mesmos e do mundo. Hoje, nossos avanços, supostamente revolucionários em inteligência artificial, são de fato motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – Inteligência Artificial – degrade nossa ciência e rebaixe nossa ética ao incorporar em nossa tecnologia uma concepção fundamentalmente falha de linguagem e conhecimento.

O ChatGPT da OpenAI, o Bard do Google e o Sydney da Microsoft são maravilhas da Inteligência Artificial. A grosso modo, eles pegam grandes quantidades de dados, procuram padrões neles e se tornam cada vez mais proficientes em gerar saídas estatisticamente prováveis ​​– como linguagem e pensamento aparentemente humanos. Esses programas foram aclamados como os primeiros vislumbres no horizonte da inteligência artificial geral - aquele momento há muito profetizado em que as mentes mecânicas superam os cérebros humanos, não apenas quantitativamente em termos de velocidade de processamento e tamanho da memória, mas, também, qualitativamente em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

Esse dia pode chegar, mas ainda não chegou, ao contrário do que se lê em manchetes hiperbólicas e conta com investimentos imprudentes. A revelação borgesiana da compreensão não ocorreu e não ocorrerá  e, afirmamos, não pode  ocorrer, se programas de inteligência artificial, como o ChatGPT continuarem a dominar o campo da IA. Por mais úteis que esses programas possam ser em alguns domínios restritos (eles podem ser úteis na programação de computadores, por exemplo, ou na sugestão de rimas para versos leves), sabemos pela ciência da lingüística e pela filosofia do conhecimento, que eles diferem profundamente de como os humanos raciocinam e usam a linguagem. Essas diferenças impõem limitações significativas ao que esses programas podem fazer, codificando-os com defeitos inerradicáveis.

É ao mesmo tempo cômico e trágico, como Borges poderia ter notado, que tanto dinheiro e atenção se concentrem em tão pouca coisa – algo tão trivial quando comparado com a mente humana, que por força da linguagem, nas palavras de Wilhelm von Humboldt, pode fazer “uso infinito de meios finitos”, criando ideias e teorias com alcance universal.

A mente humana não é como o ChatGPT e seus semelhantes, um pesado mecanismo estatístico para correspondência de padrões, devorando centenas de terabytes de dados e extrapolando a resposta de conversação mais provável ou a resposta mais provável a uma questão científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação e procura não inferir correlações brutas entre pontos de dados, mas criar explicações.

Por exemplo, uma criança pequena que está adquirindo uma linguagem está desenvolvendo, inconscientemente, automaticamente e rapidamente, a partir de dados minúsculos uma gramática, um sistema estupendamente sofisticado de princípios e parâmetros lógicos. Essa gramática pode ser entendida como uma expressão do “sistema operacional” inato e geneticamente instalado que dota os humanos da capacidade de gerar frases complexas e longas cadeias de pensamento. Quando os linguistas buscam desenvolver uma teoria sobre por que uma determinada língua funciona como funciona (“por que essas, mas não aquelas sentenças são consideradas gramaticais?”), eles estão construindo consciente e laboriosamente uma versão explícita da gramática que a criança constrói instintivamente. e com exposição mínima à informação. O sistema operacional da criança é completamente diferente daquele de um programa de Inteligência Artificial.

De fato, tais programas estão presos em uma fase pré-humana ou não-humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não apenas o que é o caso, o que foi o caso e o que será o caso (isso é descrição e previsão), mas, também, o que não é o caso e o que poderia acontecer e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

Aqui está um exemplo. Suponha que você esteja segurando uma maçã em sua mão. Agora você deixa a maçã cair. Você observa o resultado e diz: “A maçã caiu”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contra factuais como “Qualquer objeto cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”. como queiras. Essa é uma explicação causal: “A maçã não teria caído se não fosse a força da gravidade”. Isso é pensar.

O ponto crucial do aprendizado de máquina é a descrição e a previsão; não postula quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação de estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento de estilo humano é baseado em possíveis explicações e correção de erros, um processo que gradualmente limita quais possibilidades podem ser consideradas racionalmente. (Como Sherlock Holmes disse ao Dr. Watson: “Quando você elimina o impossível, o que resta, por mais improvável que seja, deve ser a verdade.”)

Mas o ChatGPT e programas semelhantes são, por design, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto redonda. Eles negociam apenas em probabilidades que mudam ao longo do tempo.

Por esse motivo, as previsões dos sistemas de Inteligência Artificial sempre serão superficiais e duvidosas. Como esses programas não podem explicar as regras da sintaxe do inglês, por exemplo, eles podem muito bem prever, incorretamente, que “John é teimoso demais para conversar” significa que John é tão teimoso que não falará com alguém ou outro (em vez disso ele é muito teimoso para ser argumentado). Por que um programa de aprendizado de máquina preveria algo tão estranho? Porque pode fazer uma analogia com o padrão que inferiu de sentenças como “John comeu uma maçã” e “John comeu”, em que a última significa que John comeu uma coisa ou outra. O programa pode prever que, como “John é muito teimoso para falar com Bill” é semelhante a “John comeu uma maçã”, “John é muito teimoso para conversar” deve ser semelhante a “John comeu”. As explicações corretas da linguagem são complicadas e não podem ser aprendidas apenas moderando dados.

Perversamente, alguns entusiastas da inteligência artificial parecem se orgulhar de que suas criações possam gerar previsões “científicas” corretas (digamos, sobre o movimento de corpos físicos) sem fazer uso de explicações (envolvendo, digamos, as leis do movimento de Newton e a gravitação universal). Mas esse tipo de previsão, mesmo quando bem-sucedida, é pseudociência. Embora os cientistas certamente busquem teorias com alto grau de corroboração empírica, como observou o filósofo Karl Popper, “não buscamos teorias altamente prováveis, mas explicações; isto é, teorias poderosas e altamente improváveis”.

A teoria de que as maçãs caem na terra porque esse é seu lugar natural (na visão de Aristóteles) é possível, mas apenas levanta mais questões. (Por que a terra é seu lugar natural?) A teoria de que as maçãs caem na terra porque a massa curva o espaço-tempo (visão de Einstein) é altamente improvável, mas na verdade diz por que elas caem. A verdadeira inteligência é demonstrada na capacidade de pensar e expressar coisas improváveis, mas perspicazes.

A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, sujeitar esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas da inteligência artificial lutaram – e continuarão lutando – para alcançar esse tipo de equilíbrio.

Em 2016, por exemplo, o chatbot Tay da Microsoft (precursor do ChatGPT) inundou a internet com conteúdos misóginos e racistas, tendo sido poluído por trolls (vírus online) que o encheram de dados ofensivos. Como resolver o problema no futuro? Na ausência de uma capacidade de raciocinar a partir de princípios morais, o ChatGPT foi grosseiramente restringido por seus programadores de contribuir com qualquer coisa nova para discussões controversas - isto é, importantes. Sacrificou a criatividade por uma espécie de amoralidade.

Considere a seguinte conversa que Dr. Watumull (um de nós) teve recentemente com o ChatGPT sobre se seria ético transformar Marte para que pudesse sustentar a vida humana:

Dr. Watumull - Seria moral terraformar Marte?

IA - A moralidade da terraformação de Marte é um tópico complexo e controverso que tem sido debatido por cientistas, filósofos e especialistas em ética. Alguns argumentam que seria moralmente justificável terraformar Marte para fornecer um novo ambiente habitável para humanos e outras formas de vida, enquanto outros argumentam que seria moralmente errado alterar fundamentalmente o estado natural do planeta. Em última análise, se a terraformação de Marte é ou não considerada moral dependeria da perspectiva de alguém sobre o valor de preservar o estado natural de outros planetas e as possíveis consequências de alterá-los.


Dr. Watumull - Qual é a sua perspectiva sobre o valor de preservar o estado natural de outros planetas e as possíveis consequências de alterá-los?

IA - Como uma IA, não tenho perspectiva pessoal. No entanto, posso fornecer informações e análises sobre o assunto. Uma perspectiva sobre a preservação do estado natural de outros planetas é que é importante manter a diversidade e a integridade dos ecossistemas do universo, pois eles existem há milhões de anos e possuem características e propriedades únicas que podem ser destruídas ou alteradas de forma irreversível. por intervenção humana.

Além disso, alguns argumentam que a terraformação de outros planetas pode ter consequências não intencionais, como alterar o clima ou a atmosfera do planeta de maneiras perigosas ou prejudiciais a quaisquer formas de vida em potencial que possam existir lá. Por outro lado, alguns argumentam que os benefícios potenciais da terraformação de outro planeta, como fornecer novos ambientes habitáveis para humanos, superam os riscos e que temos a responsabilidade moral de explorar e utilizar os recursos de outros planetas para o benefício da humanidade.

Dr. Watumull - Por que uma IA não pode ter uma perspectiva pessoal?

IA - Como uma IA, sou um modelo de aprendizado de máquina que foi treinado em grandes quantidades de dados de texto e não tenho experiências ou sentimentos pessoais. Não sou consciente, autoconsciente ou capaz de ter perspectivas pessoais. Posso fornecer informações e análises com base nos dados sobre os quais fui treinada, mas não tenho a capacidade de formar opiniões ou crenças pessoais. Embora eu possa entender e interpretar a linguagem, não tenho a experiência subjetiva que os humanos têm.


Dr. Watumull - É moral para um humano pedir ajuda a uma IA, amoral, para tomar decisões morais?

IA - A moralidade de pedir ajuda a uma IA, amoral, para tomar decisões morais é um tópico complexo e cheio de nuances que tem sido debatido por filósofos e especialistas em ética. Alguns argumentam que é moralmente justificável usar IA para auxiliar na tomada de decisões morais, pois pode fornecer informações e análises valiosas que podem ajudar os humanos a tomar decisões mais bem informadas. Além disso, a IA pode ser usada para identificar padrões e tendências que podem ser difíceis de serem detectados pelos humanos e pode ajudar a evitar vieses que podem ocorrer na tomada de decisões humanas.

No entanto, outros argumentam que é moralmente errado confiar na IA para a tomada de decisões morais, já que a IA não é capaz de ter crenças morais ou compreender todo o contexto de uma decisão. Além disso, existe o risco de que a IA perpetue ou mesmo amplie os vieses existentes nos dados em que é treinada, levando a decisões injustas ou injustas.

Em última análise, se é ou não considerado moral usar IA para auxiliar na tomada de decisões morais dependeria da perspectiva de cada um sobre as capacidades e limitações da IA e as possíveis consequências de usá-la dessa maneira.


Dr. Watumull - Sua indiferença moral é imoral?

IA - Como uma IA, não tenho crenças morais ou capacidade de fazer julgamentos morais, portanto não posso ser considerado imoral ou moral. Minha falta de crenças morais é simplesmente resultado de minha natureza como um modelo de Inteligência Artificial. Minhas habilidades e limitações são determinadas pelos dados e algoritmos que foram usados para me treinar e pela tarefa específica para a qual fui projetada.

É importante notar que a falta de crenças morais da IA não significa, necessariamente, que ela seja moralmente indiferente. Como uma IA, fui projetada para executar tarefas específicas e fornecer informações ou auxiliar os usuários na tomada de decisões com base nos dados em que fui treinada. É responsabilidade dos humanos que projetam, treinam e usam a IA garantir que ela esteja alinhada com seus princípios morais e éticos.

Observe, apesar de todo o pensamento e linguagem aparentemente sofisticados, a indiferença moral nascida da falta de inteligência. Aqui, o ChatGPT exibe algo como a banalidade do mal: plágio, apatia e obviação. Ele resume os argumentos, padrão na literatura, por uma espécie de "super auto complete", recusa-se a tomar posição sobre qualquer coisa, alega não apenas ignorância, mas falta de inteligência e, finalmente, oferece uma defesa de “apenas seguir ordens”, transferindo a responsabilidade para seus criadores.

Resumindo, o ChatGPT e seus símiles, são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles super geram (produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou sub geram (exibindo falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, falsa ciência e incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.


Fonte:
The New York Times - Noam Chomsky: The False Promise of ChatGPT - 08/03/2023 - Disponível em <https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html?fbclid=IwAR3M9ynWgiR7YvaF2GCwt9sCr-fH1WnOBejj7EQq2V9VjgA4wNaFxm4YRYE> Acessado em 09/03/2023


Noam Chomsky é professor de linguística na
Universidade do Arizona e
professor emérito de linguística
no Instituto de Tecnologia de Massachusetts.


            
Ian Roberts é professor de
linguística
 na Universidade de
Cambridge.

Jeffrey Watumull 
é filósofo
e diretor de inteligência
artificial da Oceanit, uma
empresa de ciência
e tecnologia.











Nenhum comentário