Mas e se esse marco não for apenas uma conquista notável? E se também representar um formidável estrangulamento no desenvolvimento de todas as civilizações, um obstáculo tão desafiador que impede a sua sobrevivência a longo prazo?
Esta ideia está no cerne de um artigo de pesquisa publicado por Michael Garrett, astrônomo escocês e diretor do Jodrell Bank Centre for Astrophysics, recentemente na Acta Astronautica. Poderia a IA ser o “grande filtro” do universo – um limiar tão difícil de ultrapassar que impede a maior parte da vida de evoluir para civilizações espaciais?
Este é um conceito que pode explicar por que a busca por inteligência extraterrestre (SETI) ainda não detectou assinaturas de civilizações técnicas avançadas em outras partes da galáxia.
A hipótese do grande filtro é, em última análise, uma solução proposta para o Paradoxo de Fermi. Isto questiona por que razão, num universo vasto e antigo o suficiente para albergar bilhões de planetas potencialmente habitáveis, não detectámos quaisquer sinais de civilizações alienígenas. A hipótese sugere que existem obstáculos intransponíveis na linha do tempo evolutiva das civilizações que as impedem de se transformarem em entidades espaciais.
Acredito que o surgimento da ASI possa ser um desses filtros. O rápido avanço da IA, potencialmente levando à ASI, pode cruzar-se com uma fase crítica no desenvolvimento de uma civilização – a transição de uma espécie de planeta único para uma espécie multiplanetária .
É aqui que muitas civilizações poderão falhar, com a IA fazendo um progresso muito mais rápido do que a nossa capacidade de a controlar ou de explorar e povoar de forma sustentável o nosso sistema solar.
O desafio da IA, e especificamente da ASI, reside na sua natureza autónoma, autoamplificadora e melhoradora. Possui o potencial para melhorar as suas próprias capacidades a uma velocidade que ultrapassa os nossos próprios cronogramas evolutivos sem IA.
O potencial para algo correr mal é enorme, levando à queda das civilizações biológicas e da IA antes que estas tenham a oportunidade de se tornarem multiplanetárias. Por exemplo, se as nações confiarem cada vez mais e cederem poder a sistemas autónomos de IA que competem entre si, as capacidades militares poderão ser utilizadas para matar e destruir numa escala sem precedentes. Isto poderia potencialmente levar à destruição de toda a nossa civilização, incluindo os próprios sistemas de IA.
Neste cenário, estimo que a longevidade típica de uma civilização tecnológica possa ser inferior a 100 anos. Esse é aproximadamente o tempo entre a capacidade de receber e transmitir sinais entre as estrelas (1960) e o surgimento estimado do ASI (2040) na Terra. Isto é alarmantemente curto quando comparado com a escala de tempo cósmica de bilhões de anos.
Esta estimativa, quando associada a versões otimistas da equação de Drake – que tenta estimar o número de civilizações extraterrestres ativas e comunicativas na Via Láctea – sugere que, num dado momento, há apenas um punhado de civilizações inteligentes por aí. Além disso, tal como nós, as suas atividades tecnológicas relativamente modestas podem torná-los bastante difíceis de detectar.
Chamada de despertar
Esta pesquisa não é simplesmente um conto de advertência sobre uma possível destruição. Serve como um alerta para a humanidade estabelecer quadros regulamentares robustos para orientar o desenvolvimento da IA, incluindo sistemas militares.
Não se trata apenas de prevenir o uso malévolo da IA na Terra; trata-se também de garantir que a evolução da IA esteja alinhada com a sobrevivência a longo prazo da nossa espécie. Sugere que precisamos de investir mais recursos para nos tornarmos uma sociedade multiplanetária o mais rapidamente possível – um objetivo que permaneceu adormecido desde os dias inebriantes do projecto Apollo, mas que recentemente foi reavivado por avanços feitos por empresas privadas.
Como observou o historiador Yuval Noah Harari , nada na história nos preparou para o impacto da introdução de entidades inconscientes e superinteligentes em nosso planeta. Recentemente, as implicações da tomada de decisões autónomas em matéria de IA levaram a apelos de líderes proeminentes neste domínio para uma moratória sobre o desenvolvimento da IA, até que uma forma responsável de controlo e regulação possa ser introduzida.
Mas mesmo que todos os países concordassem em cumprir regras e regulamentos rigorosos, será difícil controlar as organizações desonestas.
A integração da IA autónoma em sistemas de defesa militar deve ser uma área de particular preocupação. Já existem evidências de que os seres humanos irão voluntariamente ceder um poder significativo a sistemas cada vez mais capazes, porque podem realizar tarefas úteis de forma muito mais rápida e eficaz, sem intervenção humana. Os governos estão, portanto, relutantes em regulamentar esta área, dadas as vantagens estratégicas que a IA oferece, como foi demonstrado recentemente e de forma devastadora em Gaza .
Isto significa que já estamos perigosamente perto de um precipício onde as armas autónomas operam para além dos limites éticos e contornam o direito internacional. Num mundo assim, entregar o poder aos sistemas de IA, a fim de obter uma vantagem tática, poderia inadvertidamente desencadear uma cadeia de eventos altamente destrutivos e de rápida escalada. Num piscar de olhos, a inteligência coletiva do nosso planeta poderá ser destruída.
A humanidade está em um ponto crucial de sua trajetória tecnológica. As nossas ações agora poderão determinar se nos tornaremos uma civilização interestelar duradoura ou se sucumbiremos aos desafios colocados pelas nossas próprias criações.
Usar o SETI como uma lente através da qual podemos examinar o nosso desenvolvimento futuro acrescenta uma nova dimensão à discussão sobre o futuro da IA. Cabe a todos nós garantir que, quando alcançarmos as estrelas, o façamos não como um alerta para outras civilizações, mas como um farol de esperança – uma espécie que aprendeu a prosperar ao lado da IA.
Fonte: PHYS.ORG
Comentários
Postar um comentário