Francisco falou no encontro de cúpula em
Borgo Egnazia, na Puglia. Na sessão conjunta com os líderes mundiais, indicou
as oportunidades, os perigos e os efeitos da inteligência artificial: a
humanidade está condenada a um futuro sem esperança se as pessoas forem
privadas da capacidade de decidir sobre si mesmas e sobre suas vidas,
condenando-as a depender das escolhas das máquinas.
"Nenhuma máquina, em caso algum,
deveria ter a possibilidade de optar por tirar a vida a um ser humano."
Foi o que disse o Papa Francisco em seu discurso proferido na cúpula de líderes
mundiais do G7, em Borgo Egnazia, na região italiana da Puglia. A cúpula teve
inicio na quinta-feira, 13, e se concluirá no sábado, 15 de junho.
O Papa chegou de helicóptero por volta das
13h e foi recebido pela presidente do Conselho de Ministros da Itália, Giorgia
Meloni. Depois, manteve quatro encontros bilaterais com Georgieva (FMI),
Zelensky, Macron e Trudeau, antes de se deslocar, acompanhado pela
primeira-ministra italiana, Giorgia Meloni, para a Sala Arena onde foi recebido
por uma salva de palmas dos líderes na sessão conjunta.
O Papa falou sobre a Inteligência
Artificial, um dos principais temas do G7. Um "instrumento
fascinante", mas ao mesmo tempo "tremendo", disse ele; "um
instrumento" capaz de trazer benefícios ou causar danos, como todas as
"ferramentas" criadas pelo homem desde o início dos tempos. O Papa já
tinha dedicado sua Mensagem para o 58º Dia Mundial das Comunicações Sociais a
esse tema. Agora, diante dos homens e mulheres responsáveis pelo mundo, ele
examina suas oportunidades, mas sobretudo seus riscos e "efeitos sobre o
futuro da humanidade". O seu olhar está voltado principalmente para essa
guerra com seus "pedaços" cada vez mais unificados.
Num drama como o conflito armado, é urgente
repensar o desenvolvimento e o uso de dispositivos como as "armas
autônomas letais" para proibir sua utilização, começando já com um
compromisso ativo e concreto para introduzir um controle humano cada vez maior
e significativo.
Que nunca aconteça que as máquinas matem o
homem que as criou. Francisco do palco do G7 refletiu a partir da engenhosidade
humana, para esclarecer como não existe nenhum preconceito sobre os progressos
científico e tecnológico, mas sim o medo de um desvio: "A ciência e a
tecnologia são produtos extraordinários do potencial criativo de nós seres
humanos”, disse o Pontífice. “É a partir do uso deste potencial criativo que
Deus nos deu que a inteligência artificial vem à luz”. Um “instrumento
extremamente poderoso”, sublinhou o Papa, utilizado em muitos âmbitos da ação
humana: medicina, trabalho, cultura, comunicação, educação, política. “É agora
lícito levantar a hipótese de que o seu uso influenciará cada vez mais o nosso
modo de vida, as nossas relações sociais e, no futuro, até mesmo a forma como
concebemos a nossa identidade como seres humanos”.
Portanto, por um lado, as possibilidades
que a IA oferece são estimulantes; por outro lado, geram medo pelas
consequências que se preveem. Em primeiro lugar, para Francisco é necessário
distinguir adequadamente entre uma máquina que “pode, de algumas formas e com
estes novos meios, produzir escolhas algorítmicas” e, portanto, “uma escolha
técnica entre várias possibilidades”, e o ser humano que, em vez disso, “não só
escolhe, mas em seu coração é capaz de decidir”.
"É por isso que, diante dos prodígios
das máquinas, que parecem ser capazes de escolher de forma independente,
devemos ter claro que o ser humano deve sempre ficar com a decisão, mesmo nos
tons dramáticos e urgentes com os quais ela às vezes se apresenta em nossas
vidas", disse ainda o Papa.
A advertência do Papa foi incisiva:
“Condenaríamos a humanidade a um futuro sem esperança se retirássemos das
pessoas a capacidade de decidir sobre si mesmas e sobre as suas vidas,
condenando-as a depender das escolhas das máquinas. Precisamos – disse ele –
garantir e proteger um espaço de controle significativo do ser humano sobre o
processo de escolha de programas de inteligência artificial: a própria
dignidade humana está em jogo”.
Em suma, não estamos falando apenas de
progresso científico, mas estamos diante de "uma verdadeira revolução
cognitivo-industrial que", disse o Papa Francisco, "contribuirá para
a criação de um novo sistema social marcado por complexas transformações
epocais".
A inteligência artificial poderia permitir
a democratização do acesso ao conhecimento, o progresso exponencial da pesquisa
científica, a possibilidade de delegar trabalhos árduos às máquinas; mas, ao
mesmo tempo, poderia trazer consigo uma injustiça maior entre nações avançadas
e em desenvolvimento, entre classes sociais dominantes e classes sociais
oprimidas, colocando em perigo a possibilidade de uma "cultura do
encontro" e promovendo uma "cultura do descarte".
Salvatore Cernuzio/Mariangela Jaguraba – Vatican News
____________________________________________________________________________________
Editorial da Vatican News:
Inteligência artificial e fator humano
Em 1983, um homem salvou o mundo de uma
guerra nuclear que poderia ter sido desencadeada pelo erro de uma máquina.
Andrea Tornielli
Os sistemas de armas autônomos nunca
poderão ser sujeitos moralmente responsáveis: a exclusiva capacidade humana de
julgamento moral e de decisão ética é mais do que um conjunto complexo de
algoritmos, e tal capacidade não pode ser reduzida à programação de uma máquina
que, por mais «inteligente» que seja, permanece sempre uma máquina. Por esta
razão, é imperioso garantir uma supervisão humana adequada, significativa e
coerente dos sistemas de armas". O Papa Francisco escreveu isso na Mensagem para o Dia Mundial da Paz de 2024.
Há um episódio, ocorrido há quarenta anos,
que deveria se tornar um paradigma sempre que se fala de inteligência
artificial aplicada à guerra, às armas, aos instrumentos de morte. E é a
história do oficial soviético cuja decisão, contrariando o protocolo, salvou o
mundo de um conflito nuclear que teria tido consequências catastróficas. Aquele
homem se chamava Stanislav Evgrafovich Petrov, era um tenente-coronel do
exército russo e, em 26 de setembro de 1983, prestava serviço noturno no bunker
"Serpukhov 15", monitorando a atividade de mísseis dos EUA. A Guerra
Fria estava em um ponto de inflexão crucial, o presidente americano Ronald
Reagan estava investindo grandes somas nos armamentos e acabara de definiar a
URSS de "império do mal", a OTAN estava envolvida nos exercícios
militares que recriavam cenários de guerra nuclear. No Kremlin, Jurij Andropov
havia falado recentemente de uma "escalada sem precedentes" da crise
e, em 1º de setembro, os soviéticos haviam derrubado um avião da Korean Air
Lines sobre a península de Kamchatka, matando 269 pessoas.
Naquela noite de 26 de setembro, Petrov viu
que o elaborador Krokus, o cérebro considerado infalível em monitorar a
atividade inimiga, havia relatado de uma base em Montana, a partida de um
míssil em direção à União Soviética. O protocolo exigia que o oficial alertasse
imediatamente os superiores, que dariam o sinal verde para uma resposta
lançando mísseis em direção aos Estados Unidos. Mas Petrov esperou, também
porque, segundo lhe disseram, qualquer ataque teria sido maciço. Portanto, ele
considerou aquele míssil solitário um alarme falso. E fez o mesmo com os quatro
seguintes que apareceram nos seus monitores pouco tempo depois, perguntando-se
por que não havia confirmação do radar terrestre. Ele sabia muito bem que os
mísseis intercontinentais levavam menos de meia hora para chegar ao destino,
mas decidiu não dar o alarme, deixando os outros militares presentes petrificados.
Na verdade, o cérebro eletrônico estava
errado; não houve nenhum ataque de míssil. Krokus havia sido enganado por um
fenômeno de refração da luz solar em contato com nuvens em alta altitude. Em
suma, a inteligência humana havia visto além da máquina. A decisão providencial
de não decidir foi tomada por um homem cujo julgamento foi capaz de enxergar
além dos dados e protocolos.
A catástrofe nuclear foi evitada, embora
ninguém soubesse disso na época até o início da década de 1990. Petrov, que faleceu
em setembro de 2017, disse o seguinte sobre aquela noite no bunker
"Serpukhov 15": "o que eu fiz? Nada de especial, apenas meu
trabalho. Eu era o homem certo no lugar certo e na hora certa". Ele foi o
homem capaz de avaliar o possível erro da máquina considerada infalível, o
homem capaz - voltando às palavras do Papa - "de fazer julgamentos morais
e tomar decisões éticas", porque uma máquina, por mais
"inteligente" que seja, continua sendo uma máquina.
A guerra, repete Francisco, é uma loucura,
uma derrota da humanidade. A guerra é uma grave violação da dignidade humana.
Fazer a guerra escondendo-se atrás de algoritmos, confiando na inteligência
artificial para determinar os alvos e como atingi-los e, assim, limpar a
consciência porque, no final, a máquina escolheu, é ainda mais grave. Não vamos
nos esquecer de Stanislav Evgrafovich Petrov.
Nenhum comentário:
Postar um comentário