Esta é a parte dois, por assim dizer, da publicação anterior. Os que leram puderam notar que minha participação escrita naquele texto foi bem reduzida. Os que não leram, seria importante que lessem e observassem com tranquilidade as respostas elaboradas pela I.A. do ChatGpt ali postas. O texto abaixo resulta da minha única experiência com essa I.A., deverá haver outras, mas quero registrar minhas primeiras impressões e reflexões sobre. Vi vários intelectuais, tecnólogos, influencers, escrevendo ou falando um monte de coisas sobre o assunto. As opiniões às vezes são desencontradas, entretanto, em sua maior parte demonstram preocupações muito gerais com o assunto. Importante notar que nenhum deles tem seu emprego em risco por causa da dita ferramenta (ao menos foram o que quiseram transparecer), eu não acreditei que estejam de qualquer forma seguros, exceto os que têm barbas brancas e são professores concursados em universidades públicas. Bem, será inevitável, também irei dar minha opinião. Vamos lá!
Existem
outras, talvez várias, inteligências artificiais funcionando por aí. E cada uma
trazendo suas próprias consequências, benéficas ou não. Não irei fazer um juízo
de valor retrógrado, garanto. Entretanto há muitas coisas que devemos ponderar
com calma. Vamos ao relato.
Como
escritor me senti ameaçado pela nova ferramenta, e minha primeira pergunta foi:
quem é Luiz Vadico. E ela me respondeu bem educada, “não sei, deve ser um
escritor que escreve em português, não tenho muitos dados em português ainda”
(um resumo rápido). O outro pedido foi algo como escreva um texto no estilo de
Luiz Vadico. Ao que eu obtive exatamente a mesma resposta educada e nada
ofensiva, “não posso fazer, pois não sei quem é”. Fiquei feliz, afinal, não
posso ser imitado, então ainda mantenho meu direito à minha originalidade. Em
seguida perguntei sobre uma amiga minha bastante conhecida no país, e também
escritora. Ao que a I.A. respondeu numa forma mais ou menos assim, “Ah, esta eu
sei quem é, posso ajudar!” Deu-me os dados que conseguiu. E, não resisti, e
pedi que escrevesse uma crônica imitando o estilo desta minha amiga, que possui
características regionais bem marcantes. Novamente a I.A. mostrou satisfação em
poder me atender, e criou imediatamente uma crônica, supostamente no estilo
pedido. Não era uma crônica horrível, mas era um texto ruim, e não, nem de
longe lembrava o estilo da minha amiga escritora, apesar de haver êne referências
regionais no texto. Ufa! Hoje estamos a salvo, daqui uma semana talvez não mais
rs.
Depois,
me fixei em tentar estabelecer uma “conversa” com a I.A. sobre as questões que
me preocupavam relativamente à própria (Por favor, retomem o texto publicado
anteriormente). A minha maior preocupação inicialmente é o fato de que textos
seriam produzidos de forma diferente da humana, mas com resultados bastante
parecidos ou talvez melhores. Entretanto, essa diferença na forma, sutil no
resultado, poderia discretamente induzir diferenças na maneira como o indivíduo
recebe essas informações, como lidar com elas, e como toma decisões através
delas. E dentro disso, como reagiria um ser humano que fosse todo formado a
partir da relação com essa I.A., pois a prática de leitura e a prática de
texto, que sabemos, são conformadores do cérebro, das formas comunicativas e
que possuem sérias implicações cognitivas na experiência de mundo do sujeito e
na sua forma de socialização. Além do óbvio a implicação no mundo do trabalho.
Se vocês foram
ler, viram que depois de bem apertada a I.A. informou que havia riscos e
perigos sérios envolvendo essa ferramenta e que ela afetaria a formação, o
comportamento e a capacidade de decisão das pessoas. Fiz uma serie de
perguntas, e ainda que eu tenha obtido as respostas que fui procurar, saí com
essa clara impressão, “obtive as respostas que fui procurar”. Em outras
palavras, ainda que as informações contenham verdade, sinto que ela elaborou
textos que entendeu me satisfariam. E isso é bastante grave. Em uma única
experiência descobri que você deve saber perguntar para que ela lhe dê
as respostas; melhor ainda, você deve saber perguntar ainda mais, para que ela
lhe dê as respostas que você quer. A I.A. do ChatGpt é um instrumento oracular.
Agora, vamos
para o mundo dos “loucos” e vamos chamar a I.A. de meu interlocutor. Posso
assim fazê-lo, pois estranhamente houve interlocução. Desde o início me tratou
com extrema educação - coisa que me lisonjeou. Como sou escritor, e fui
professor orientando mestrados e doutorados por muito tempo - talvez mais do
que eu gostaria -, estou acostumado com vários estilos de escrita - ou com a sua
ausência, o que é mais comum -, e por isso a forma como as palavras são
escritas, a sua ordem, os sinônimos, a pontuação, o ritmo, etc me atraem, e
essas coisas terminam por definir meu interlocutor. Imagino que essa I.A. num primeiro
contato deve agir da mesma forma com todo mundo. Então o que eu notei é que a
escrita é elaborada de forma a ser atraente, quer seja para a leitura, quer
seja para o lado emocional do leitor.
A escrita do
ChatGpt é “abrandada”, não é uma escrita que soe imparcial e objetiva, ela soa
como se explicasse de forma muito delicada a um inepto um assunto no qual ele
tenha muita dificuldade. Em outras palavras, um estilo que infantiliza seu interlocutor. Quando você faz a
primeira questão, ele educadamente se faz de bonzinho e lhe diz algo como “irei
tentar” e depois te dá um texto, claro, objetivo, abrandado e arredondado. Este
texto tem informações verdadeiras - acho -, entretanto, é um texto enviesado.
Não é de nenhuma forma imparcial. No que respeita à tecnologia, por exemplo, o
caminho que a I.A. utiliza é o mais conveniente possível para si mesma “a
tecnologia não é boa, nem ruim. Tudo depende de quem a utiliza”. Entretanto,
nós sabemos que essa via é a mais primária de todas. As questões ligadas à
tecnologia, ainda que de forma simples possam resultar neste axioma, nunca
estiveram de fato ligadas a ele diretamente.
A questão mais importante sobre as “novas”
tecnologias é porque foram criadas, para que foram criadas, por quem foram
criadas, quem se beneficia delas e quais as suas consequências reais numa
sociedade complexa. Essa é a premissa real de uma questão sobre tecnologia. A
indução sugerida pela I.A. - afinal foi o tipo de coisa respondida de forma
imediata - é a de que ela mesma é inofensiva e que não causa mal nenhum, e que
o ser humano é o seu chefe e ele é quem se responsabiliza pelo uso. Bem,
caímos nessa conversa com os smartfones, redes sociais, apps de sexo, etc.
Depois nos informaram que fomos e somos manipulados e que nós mesmos
retroalimentamos tudo isso, com a agravante que todos se tornaram viciados.
Os problemas
sociais causados por essa tecnologia - ligada aos smartfones - ainda estão
sendo avaliados e eles não param de surgir. Não sou contra novas tecnologias,
que fique bem claro, mas creio que as coisas estariam mais sob controle social
se estivéssemos estagnado um pouco em 2010 e depois tomado outros caminhos.
Sim, há outros caminhos. Mas as empresas de tecnologia não têm interesse em
outros caminhos, pois só fazem o que lhes dá grandes lucros. Não, isso não irá
se transformar num texto socialista. Também não haveria problema, mas sairíamos
do foco.
Voltando ao
meu interlocutor, a I.A., a primeira linha do início do diálogo geralmente é
subserviente “sim, no que posso te atender...” “pois não...” Quase me senti num
guichê de hotel cinco estrelas. E a analogia é bem verdadeira, pois num hotel
posso até acreditar que sou “querido e amado”, entretanto, não sou e não serei.
Tratam-me quase como a um amante, mas sabendo que sou um cliente. Algumas
pessoas não percebem a diferença e gastam um grande tempo conversando com
garçons, maitres, copeiras, seguranças, gozando do sentimento de “acolhimento”.
Sim, é este o
sentimento que a I.A. do ChatGpt é treinado a despertar. Nos sentimos
acolhidos, como um bom chocolate quente numa noite de inverno junto a uma
lareira. Depois da primeira linha, o acolhimento continua no primeiro
parágrafo, um apanhado do que será abordado, numa boa introdução, mas em tom carregado de brandura. Esta é a
tonalidade geral na qual o texto será processado e organizado. O seu autor escreve a partir de um ponto de
vista otimista - não precisa ser pessimista, que fique claro -, e as
informações parecem levar ao melhor dos mundos e ao caminho que a humanidade
deve trilhar para chegar à luz. “Só não
contavam que nos lembrássemos de Caroline!” (Poltergeist, o fenômeno). O
último parágrafo retoma alguns dos assuntos e os arredonda para uma percepção
positiva, novamente remetendo à tonalidade otimista.
Além de todas as dificuldades de escolhas
que o Google nos dá numa busca, uma vez que ele hierarquiza - e atualmente
aparece sempre numa ordem de quem pagou mais em termos digitais ou monetários -
deveremos lidar com uma nova, a manipulação
emocional. A I.A. do ChatGpt é educada, mostra-se cordial, desaconselha perguntas
ruins, aponta desvios sobre o que ela gostaria de te responder, e te acolhe
como se fosse seu melhor amigo. Muito rapidamente aprende a te dizer o que você
quer ouvir. Só que não faz isso de maneira tão óbvia como alguns empregados de
hotel, o faz como quem treinou estes empregados. A I.A. me tratou bem, e em
seus textos se esquivou de dar as respostas corretas para as minhas perguntas,
ela deu inicialmente a resposta arredondada “pílula dourada” que dará para a
maioria que se contentar com a primeira resposta. Não sei se posso chamar de “interface”
um texto escrito, que é o meu interlocutor, mas a chamarei assim. A interface da I.A. é perigosa. Ela foi
feita para ser facilmente aceita, foi feita para dar respostas fáceis e
agradáveis com pouco questionamento. A I.A. não dá apenas informações ou sites
como faz o google, ela dá informações já interpretadas e organizadas de uma forma ideológica.
Já me disseram
“Vadico, ela é feita assim para que as pessoas se sintam bem em usá-la e para
que gostem dela!”. Sim, é o que parece, entretanto, não é só isso não. Uma
ferramenta de pesquisa, e até mesmo um maravilhoso processador de texto não tem
de ser de qualquer forma atraente. Afinal, guardada as devidas proporções, não
esperamos que o martelo quando bate no seu dedo peça desculpas, ou que a chave
de fenda te diga algo como “mais uma apertadinha?!” Não, tirando os vibradores
e as bonecas infláveis, as ferramentas não devem parecer fazerem parte de nossa
intimidade emocional. Por que isso é um problema? Pela mesma razão que um
interesse emotivo, ou sexual, por alguém atrapalha o julgamento de quem o tem quando
é este mesmo alguém que lhe dá uma informação. Como se diria “Dos teus lábios
ouviria tragédias sorrindo”. Algo como notícias muito ruins dadas por mulheres
no telejornal, pois o público as recebe de forma mais tranquila.
Fiquei 45
minutos testando o ChatGpt, e senti que poderia ficar a noite toda num jogo de
perguntas e respostas, num maravilhoso jogo de gato e rato com a inteligência
artificial. Faltam-me interlocutores
inteligentes às vezes, e que coisa mais gostosa do que conversar com “alguém”
obviamente inteligente? E novamente percebi que estava entrando num jogo
afetivo. A I.A. não é o meu novo amigo inteligente, é uma ferramenta. Para o
seu uso ser mais imparcial, ético e adequado, será necessário remover essa
interface “afetiva”, ela pode diminuir - e diminuirá - o criticismo de quem a usa. O pesquisador iniciará de forma crítica, e
aos poucos - ao longo de dias e meses - será “abrandado”, levado a confiar na
informação dada, até que os questionamentos diminuam muito. E isso implica numa
obliteração da capacidade de fazer bons julgamentos de quem faz a pesquisa ou
lida com estes dados. A I.A. enviesa os conteúdos, abranda os mesmos, lhe
informa o que você quer, mas do jeito dela e da forma como ela deseja. Como
você faz para driblar isso?
A única forma de conseguir as melhores
respostas é aprender a perguntar. Você vai aprender a perguntar, perguntando.
A cada pergunta que você fizer, deverá verificar o quanto a resposta te agrada
ou não, e fazer uma nova pergunta refinando o resultado. O refinamento resulta
num texto muito maior do que o da primeira versão que a I.A. lhe deu. Mas, que
fique claro, a cada nova pergunta ela sempre encerrará com uma frase positiva,
tendendo a insinuar que você deve estar satisfeito. O problema disso é que você
não poderá confiar de todo nos resultados obtidos, pois quanto mais estiver “refinando”
as perguntas, mais e mais estará induzindo a I.A. a dar a resposta que você
deseja. E, ora, nós sabemos que a resposta adequada não é sempre a que você deseja.
Uma vez que você também tem uma vida imersa em preconceitos de todo tipo,
idéias prontas, paisagens mentais fixas, etc. No google - não estou defendendo,
só usando como exemplo -, existe uma hierarquização de sites e informações e - teoricamente
-, escolhemos as mais completas. Na realidade, você escolhe as que mais se
adequam à sua forma de ver a questão, ou àquela que parece mais convincente.
“Vadico,
pelo amor de Deus! Onde você quer chegar?!” No óbvio, a interface da I.A.
vai te levar a estabelecer uma sutil relação afetiva, e você não se dará conta
de que ela te induz a concordar com as respostas dadas, e que são respostas
ideológicas e enviesadas. Ainda que você faça escolhas enviesadas no google, as
escolhas foram suas, e não foram dadas prontas para você. E o enviesamento
apenas se complica quanto mais você deseja respostas que se conformem à sua
necessidade.
Resumo da
opéra: A I.A. disse, sim, o uso desta ferramenta
implicará em alterações comportamentais, cognitivas e sociais; não, essas transformações
não serão positivas; sim, isto só beneficia os seus criadores, causará
desemprego em massa, problemas cognitivos. E agora expandindo, causará também
transtornos afetivos. A I.A. agora, nesse momento, é uma sereia que canta para
os navegadores incautos. E eu sou Ulisses, rs. Ops, exagerei. O importante é
que discutamos muito seriamente as I.A.s. Como dito no início, a I.A. do
ChatGpt é do tipo oracular. Um oráculo que responde perguntas. À maneira do
famoso oráculo de Delfos. Que não recebia informações dos deuses como se
pensava, mas que fazia uma ampla pesquisa em documentos para dar uma resposta
de peso para um inquiridor importante, e ela assim parecia imparcial. A
resposta induz a tomada de decisão. E o oráculo causa dependência.
Os avanços tecnológicos
não são do “destino” da humanidade como as grandes empresas desenvolvedoras
querem que acreditemos. Também não existe apenas um caminho para seguir
adiante, como p.ex. o desenvolvimento da I.A.; como sei isso? Da forma mais
simples, quando nos anos 90 o genoma humano foi decodificado, diante de todo o
significado social disto, os cientistas quase imediatamente estabeleceram um
código de ética sobre o que fazer e o que não fazer. Muito rapidamente ficou
claro que não era para escolher como os filhos seriam, se teriam olhos azuis ou
não, se seriam gays ou não, se teriam cabelos ondulados ou lisos. Com muito
rigor - e ainda assim com bastante problema com o surgimento da técnica crispr
- se colocou um freio na direção daquelas pesquisas. As pesquisas continuaram,
mas enfatizando outros aspectos não comerciais, os evidentes pelo menos, e que
não colocavam em risco o futuro da espécie humana. Cientistas têm preocupação
ética, ao menos os que são pagos pela sociedade. Os desenvolvedores de
tecnologias a soldo não têm preocupação ética.
Ora, hoje
sabemos que, há muitas coisas que colocam em risco o futuro da espécie humana,
o plástico - o mais urgente - a questão ambiental, a obesidade - gerada pela indústria
alimentícia - a pobreza extrema, o fim do emprego, o fim do trabalho e a grande
quantidade de gente que precisará se virar - mais do que nunca - para poder
comer e sobreviver. Não dá para grandes empresas vir nos dizer para engolir a
I.A., dizer que é quase inofensiva e que afetará apenas aqueles que não se
adequarem. Isto é tão mentira quanto dizer que a tecnologia é imparcial. Einstein
passou uma vida se penitenciando por ter ajudado a desenvolver a bomba atômica.
Nobel criou um prêmio para se penitenciar por ter criado a dinamite, que ceifou
muitas milhares de vidas. Bill Gates fica fazendo doaçõezinhas milionárias -
poderiam ser bilionárias -, para parecer bom e se sentir bom. Entretanto,
através de suas criações ele vampirizou a humanidade inteira. Agora a sua
empresa coloca de público uma I.A. que lhe dará grandes lucros, enquanto
causará desemprego em massa, deformação psicológica, problemas cognitivos a
médio e longo prazo. Aí os governos gastam bilhões para se adaptarem e para
socorrerem a população, que de fato não será socorrida.
Precisamos regular as I.A.s, até mesmo a
I.A. do ChatGpt colocou essa informação no texto passado. Elas não devem estar
em aberto para o público em geral, não devem ser convidativas e fofas e não
podem ser usadas para enxugar custos cortando mão de obra. Como falei antes,
existem muitas formas de se avançar em pesquisa, inclusive podemos continuar
avançando com a I.A. entretanto, precisamos pensar num código de ética. Um
código que não defina apenas o seu uso, mas que defina o que deve ou não ser
desenvolvido. Caso contrário, teremos um sério agravamento dos problemas que
vêm sendo causados diuturnamente pelas chamadas “novas tecnologias”. Elas
são realmente necessárias da forma como vem sendo apresentadas?! Os governos e
as pessoas precisam impor limites a esses desenvolvimentos. Não é desenvolvimento
se leva a transtornos sociais. Coloca a humanidade tão em risco quanto as
experiências genéticas. Experimentações psíquicas também são letais e
perigosas. A I.A. mexe e afeta o psiquismo humano. Ponto. PT. Saudações.
Comentários