sexta-feira, 14 de junho de 2024

O Papa no G7:

nenhuma máquina deve optar
por tirar a vida de um ser humano

Francisco falou no encontro de cúpula em Borgo Egnazia, na Puglia. Na sessão conjunta com os líderes mundiais, indicou as oportunidades, os perigos e os efeitos da inteligência artificial: a humanidade está condenada a um futuro sem esperança se as pessoas forem privadas da capacidade de decidir sobre si mesmas e sobre suas vidas, condenando-as a depender das escolhas das máquinas.

"Nenhuma máquina, em caso algum, deveria ter a possibilidade de optar por tirar a vida a um ser humano." Foi o que disse o Papa Francisco em seu discurso proferido na cúpula de líderes mundiais do G7, em Borgo Egnazia, na região italiana da Puglia. A cúpula teve inicio na quinta-feira, 13, e se concluirá no sábado, 15 de junho.

O Papa chegou de helicóptero por volta das 13h e foi recebido pela presidente do Conselho de Ministros da Itália, Giorgia Meloni. Depois, manteve quatro encontros bilaterais com Georgieva (FMI), Zelensky, Macron e Trudeau, antes de se deslocar, acompanhado pela primeira-ministra italiana, Giorgia Meloni, para a Sala Arena onde foi recebido por uma salva de palmas dos líderes na sessão conjunta.

O Papa falou sobre a Inteligência Artificial, um dos principais temas do G7. Um "instrumento fascinante", mas ao mesmo tempo "tremendo", disse ele; "um instrumento" capaz de trazer benefícios ou causar danos, como todas as "ferramentas" criadas pelo homem desde o início dos tempos. O Papa já tinha dedicado sua Mensagem para o 58º Dia Mundial das Comunicações Sociais a esse tema. Agora, diante dos homens e mulheres responsáveis pelo mundo, ele examina suas oportunidades, mas sobretudo seus riscos e "efeitos sobre o futuro da humanidade". O seu olhar está voltado principalmente para essa guerra com seus "pedaços" cada vez mais unificados. 

Num drama como o conflito armado, é urgente repensar o desenvolvimento e o uso de dispositivos como as "armas autônomas letais" para proibir sua utilização, começando já com um compromisso ativo e concreto para introduzir um controle humano cada vez maior e significativo.

Que nunca aconteça que as máquinas matem o homem que as criou. Francisco do palco do G7 refletiu a partir da engenhosidade humana, para esclarecer como não existe nenhum preconceito sobre os progressos científico e tecnológico, mas sim o medo de um desvio: "A ciência e a tecnologia são produtos extraordinários do potencial criativo de nós seres humanos”, disse o Pontífice. “É a partir do uso deste potencial criativo que Deus nos deu que a inteligência artificial vem à luz”. Um “instrumento extremamente poderoso”, sublinhou o Papa, utilizado em muitos âmbitos da ação humana: medicina, trabalho, cultura, comunicação, educação, política. “É agora lícito levantar a hipótese de que o seu uso influenciará cada vez mais o nosso modo de vida, as nossas relações sociais e, no futuro, até mesmo a forma como concebemos a nossa identidade como seres humanos”.

Portanto, por um lado, as possibilidades que a IA oferece são estimulantes; por outro lado, geram medo pelas consequências que se preveem. Em primeiro lugar, para Francisco é necessário distinguir adequadamente entre uma máquina que “pode, de algumas formas e com estes novos meios, produzir escolhas algorítmicas” e, portanto, “uma escolha técnica entre várias possibilidades”, e o ser humano que, em vez disso, “não só escolhe, mas em seu coração é capaz de decidir”.

"É por isso que, diante dos prodígios das máquinas, que parecem ser capazes de escolher de forma independente, devemos ter claro que o ser humano deve sempre ficar com a decisão, mesmo nos tons dramáticos e urgentes com os quais ela às vezes se apresenta em nossas vidas", disse ainda o Papa.

A advertência do Papa foi incisiva: “Condenaríamos a humanidade a um futuro sem esperança se retirássemos das pessoas a capacidade de decidir sobre si mesmas e sobre as suas vidas, condenando-as a depender das escolhas das máquinas. Precisamos – disse ele – garantir e proteger um espaço de controle significativo do ser humano sobre o processo de escolha de programas de inteligência artificial: a própria dignidade humana está em jogo”.

Em suma, não estamos falando apenas de progresso científico, mas estamos diante de "uma verdadeira revolução cognitivo-industrial que", disse o Papa Francisco, "contribuirá para a criação de um novo sistema social marcado por complexas transformações epocais". 

A inteligência artificial poderia permitir a democratização do acesso ao conhecimento, o progresso exponencial da pesquisa científica, a possibilidade de delegar trabalhos árduos às máquinas; mas, ao mesmo tempo, poderia trazer consigo uma injustiça maior entre nações avançadas e em desenvolvimento, entre classes sociais dominantes e classes sociais oprimidas, colocando em perigo a possibilidade de uma "cultura do encontro" e promovendo uma "cultura do descarte".

Salvatore Cernuzio/Mariangela Jaguraba – Vatican News

____________________________________________________________________________________

Editorial da Vatican News:

Inteligência artificial e fator humano

Em 1983, um homem salvou o mundo de uma guerra nuclear que poderia ter sido desencadeada pelo erro de uma máquina.

Andrea Tornielli

Os sistemas de armas autônomos nunca poderão ser sujeitos moralmente responsáveis: a exclusiva capacidade humana de julgamento moral e de decisão ética é mais do que um conjunto complexo de algoritmos, e tal capacidade não pode ser reduzida à programação de uma máquina que, por mais «inteligente» que seja, permanece sempre uma máquina. Por esta razão, é imperioso garantir uma supervisão humana adequada, significativa e coerente dos sistemas de armas". O Papa Francisco escreveu isso na Mensagem para o Dia Mundial da Paz de 2024.

Há um episódio, ocorrido há quarenta anos, que deveria se tornar um paradigma sempre que se fala de inteligência artificial aplicada à guerra, às armas, aos instrumentos de morte. E é a história do oficial soviético cuja decisão, contrariando o protocolo, salvou o mundo de um conflito nuclear que teria tido consequências catastróficas. Aquele homem se chamava Stanislav Evgrafovich Petrov, era um tenente-coronel do exército russo e, em 26 de setembro de 1983, prestava serviço noturno no bunker "Serpukhov 15", monitorando a atividade de mísseis dos EUA. A Guerra Fria estava em um ponto de inflexão crucial, o presidente americano Ronald Reagan estava investindo grandes somas nos armamentos e acabara de definiar a URSS de "império do mal", a OTAN estava envolvida nos exercícios militares que recriavam cenários de guerra nuclear. No Kremlin, Jurij Andropov havia falado recentemente de uma "escalada sem precedentes" da crise e, em 1º de setembro, os soviéticos haviam derrubado um avião da Korean Air Lines sobre a península de Kamchatka, matando 269 pessoas.

Naquela noite de 26 de setembro, Petrov viu que o elaborador Krokus, o cérebro considerado infalível em monitorar a atividade inimiga, havia relatado de uma base em Montana, a partida de um míssil em direção à União Soviética. O protocolo exigia que o oficial alertasse imediatamente os superiores, que dariam o sinal verde para uma resposta lançando mísseis em direção aos Estados Unidos. Mas Petrov esperou, também porque, segundo lhe disseram, qualquer ataque teria sido maciço. Portanto, ele considerou aquele míssil solitário um alarme falso. E fez o mesmo com os quatro seguintes que apareceram nos seus monitores pouco tempo depois, perguntando-se por que não havia confirmação do radar terrestre. Ele sabia muito bem que os mísseis intercontinentais levavam menos de meia hora para chegar ao destino, mas decidiu não dar o alarme, deixando os outros militares presentes petrificados.

Na verdade, o cérebro eletrônico estava errado; não houve nenhum ataque de míssil. Krokus havia sido enganado por um fenômeno de refração da luz solar em contato com nuvens em alta altitude. Em suma, a inteligência humana havia visto além da máquina. A decisão providencial de não decidir foi tomada por um homem cujo julgamento foi capaz de enxergar além dos dados e protocolos.

A catástrofe nuclear foi evitada, embora ninguém soubesse disso na época até o início da década de 1990. Petrov, que faleceu em setembro de 2017, disse o seguinte sobre aquela noite no bunker "Serpukhov 15": "o que eu fiz? Nada de especial, apenas meu trabalho. Eu era o homem certo no lugar certo e na hora certa". Ele foi o homem capaz de avaliar o possível erro da máquina considerada infalível, o homem capaz - voltando às palavras do Papa - "de fazer julgamentos morais e tomar decisões éticas", porque uma máquina, por mais "inteligente" que seja, continua sendo uma máquina.

A guerra, repete Francisco, é uma loucura, uma derrota da humanidade. A guerra é uma grave violação da dignidade humana. Fazer a guerra escondendo-se atrás de algoritmos, confiando na inteligência artificial para determinar os alvos e como atingi-los e, assim, limpar a consciência porque, no final, a máquina escolheu, é ainda mais grave. Não vamos nos esquecer de Stanislav Evgrafovich Petrov.

_____________________________________________________________________________________
                                                                                                                      Fonte: vaticannews.va

Nenhum comentário:

Postar um comentário