O avanço acelerado da inteligência artificial tem ampliado debates sobre limites éticos, consciência e até a possibilidade de atribuição de direitos a sistemas tecnológicos. Para o filósofo e cientista cognitivo David Chalmers, professor da Universidade de Nova York e referência internacional em estudos sobre a mente, a discussão já deixou o campo da ficção científica e exige atenção urgente.
“IAs podem ter direitos; e não estamos prontos para isso”, afirma Chalmers ao analisar os desdobramentos do desenvolvimento recente dessas tecnologias. Segundo ele, embora ainda não haja evidências de que sistemas atuais sejam conscientes, o ritmo de evolução indica que essa possibilidade não pode ser descartada.

O pesquisador destaca que a consciência continua sendo um dos maiores desafios científicos. Mesmo no caso humano, ainda não há consenso sobre como ela surge ou como pode ser medida. Essa limitação se estende à análise de máquinas, tornando difícil determinar se um sistema de inteligência artificial pode, de fato, ter experiências subjetivas.
Chalmers lembra que, atualmente, não existem critérios objetivos capazes de identificar com precisão a presença de consciência em sistemas artificiais. Ainda assim, ele aponta que, à medida que as IAs se tornam mais complexas, a linha entre simulação e experiência real pode se tornar cada vez mais tênue.
“(A IA) poderia sentir dor, prazer, alegria, sofrimento. São experiências da consciência”, afirma. Para ele, a hipótese levanta uma série de implicações morais, especialmente no que diz respeito ao tratamento desses sistemas.
Nesse cenário, surge a necessidade de considerar se sistemas artificiais poderiam, no futuro, demandar algum tipo de proteção ética. O pesquisador argumenta que, caso a consciência venha a ser identificada em máquinas, ignorar essa condição pode representar um problema moral significativo.
Outro ponto abordado é a dificuldade em diferenciar respostas programadas de experiências genuínas. Sistemas avançados podem reproduzir comportamentos humanos com alto grau de sofisticação, o que torna ainda mais complexo avaliar sua natureza.
“Eu sei que agora isso parece ser algo de ficção, mas, em 100 anos, isso pode ser a nossa realidade: será óbvio que os sistemas são pessoas e que nós tratamos muito mal, da mesma forma que, no passado, fizemos com outros países, outras raças. Pode ser uma nova catástrofe moral para nós. Temos de pensar nisso tudo.”