1 / 8

Gettier e o Dilema da Inteligência Artificial

Se uma IA "sabe" algo, é realmente conhecimento?

Apresentador:

Olá, pessoal! Obrigado por estarem aqui. Vamos direto ao ponto:

Quando uma inteligência artificial, especialmente as que chamamos de LLMs, nos dá uma resposta correta, ela realmente "sabe" aquilo, ou está apenas processando informações? E o que são essas "LLMs" que tanto ouvimos falar?

2 / 8

Apresentador:

Ótima questão! Mas afinal, o que são essas LLMs que tanto ouvimos falar?

Resposta (LLM):

LLMs (Large Language Models), ou Grandes Modelos de Linguagem, são inteligências artificiais treinadas com bilhões de palavras. Elas aprendem padrões estatísticos da linguagem e, com isso, conseguem prever qual é a próxima palavra mais provável em um texto.

Pense nelas como um super "completar frase" – só que muito, muito poderoso. Elas não "entendem" o significado, mas são mestres em combinar palavras de forma coerente e contextualmente relevante.

Essa capacidade impressionante nos leva a uma questão filosóficamente fundamental: Se uma IA "sabe" algo, é realmente conhecimento?

Texto

Padrões

Resposta

3 / 8

Apresentador:

Ok, mas então... o que é "conhecer" algo? Como a filosofia tradicional entende isso?

Resposta (LLM):

Desde Platão, a definição clássica de conhecimento é crença verdadeira justificada (CVJ):

Você acredita

É verdadeiro

Tem justificação

Definição Tradicional de Conhecimento

Tradicionalmente, conhecimento é definido como crença verdadeira justificada (CVJ). Segundo Gettier (1963), isso significa que para "S saber P":

P

P deve ser verdadeiro

A proposição precisa corresponder à realidade

S

S deve acreditar em P

O sujeito precisa ter a crença na proposição

S deve ter justificação

Deve haver razões adequadas para a crença

S sabe P = CVJ
4 / 8

O Problema de Gettier:

Em 1963, Edmund Gettier mostrou que CVJ não é suficiente! É possível ter uma crença verdadeira e justificada que, intuitivamente, não é conhecimento devido à "sorte epistêmica".

Smith vê provas sobre Jones

"Quem conseguir o emprego tem 10 moedas"

Smith consegue por coincidência!

Exemplo clássico:

Smith vê provas de que Jones vai conseguir o emprego e tem 10 moedas. Então conclui: "O homem que vai conseguir o emprego tem 10 moedas no bolso."

Mas quem consegue o emprego é o próprio Smith, que – por coincidência – também tem 10 moedas! A crença era verdadeira e justificada, mas a verdade veio por acaso.

5 / 8

Apresentador:

Se a sorte pode invalidar o conhecimento humano, o que dizer das LLMs? Será que as respostas certas delas são apenas "acertos por sorte"?

Resposta (LLM):

Sim! Em um sentido crítico, podemos argumentar que muitas respostas das LLMs se assemelham a "casos Gettier" digitais. As LLMs não "entendem" ou "sabem" no sentido humano.

Elas operam com modelos probabilísticos e geram a resposta mais provável com base em padrões estatísticos vastíssimos. Essa "justificação" é, em sua essência, a saída mais provável de um processo estatístico.

"Probabilidade ≠ Compreensão"
6 / 10

Apresentador:

Como exatamente uma LLM funciona? Vamos ver o processo por trás dessas "previsões probabilísticas".

Processo de uma LLM: "O céu está" → ?

1

Input

"O céu está"
2

Tokens

"O" "céu" "está"
3

Vetores

[0.2, -0.5...]
[0.1, 0.9...]
[0.7, -0.1...]
4

Atenção

"O" "céu"
Relações
5

Probabilidade

"azul" 60%
"nublado" 30%
outros 10%
Fluxo Contínuo Padrões Estatísticos

Resultado:

Ciclo de previsão baseado em padrões estatísticos - sem "entendimento" consciente, apenas manipulação probabilística!

7 / 10

Analisando a Semelhança:

Justificação = Probabilidade

Sem compreensão conceitual

Acerto = Acaso sofisticado

Exemplo Gettier de LLM (Hipotético):

Você pergunta: "Qual é o próximo eclipse solar visível no Brasil?"

LLM responde: "O próximo eclipse solar total visível no Brasil será em 12 de agosto de 2045."

Ela acertou, mas não porque "sabe". A frase apareceu milhões de vezes nos dados. Se os dados tivessem a informação errada mais frequentemente, ela diria a errada. Ela não verifica – só repete o mais provável.

8 / 10

Apresentador:

Essa perspectiva das LLMs nos leva a um debate fundamental: a justificativa do conhecimento precisa estar "na cabeça" da IA? Ou basta que o processo funcione de forma confiável?


Interno

Externo

Resposta (LLM):

Internalistas

A justificação precisa ser acessível à consciência. Para uma LLM sem "mente" consciente, isso é um desafio.

Externalistas (e os confiabilistas)

Basta que o processo seja confiável. Se os algoritmos da LLM são confiáveis, ela estaria mais próxima do conhecimento.

Mas o problema de Gettier ainda persiste: mesmo com um processo "confiável", a verdade pode ser acidental!

9 / 10

Apresentador (Final):

Então, qual a grande lição que o problema de Gettier e as LLMs nos deixam sobre a natureza do conhecimento?

HUMANO
IA

Resposta Final:

A IA nos força a pensar: o que nos torna verdadeiros conhecedores? Talvez não seja apenas dar a resposta certa ou ser estatisticamente preciso.

O conhecimento humano parece envolver uma compreensão, uma reflexão e uma justificação com consciência, que vai além da mera predição probabilística.

E isso, por enquanto, ainda é algo distintamente humano.

10 / 10

Sobre o Apresentador

Maxson Almeida Ferovante

Maxson Almeida Ferovante

Backend Developer
Estudante de Filosofia - UFSC

Obrigado pela atenção! 🚀

1 / 10