O professor indica que é precisamente isso o que diferenciará sempre a inteligência humana da artificial e também a razão pela qual não parece uma boa ideia deixar os robôs e os aviões militares à vontade sem a supervisão de um humano.
No entanto, durante a conferência, patrocinada pela ONU, em que os representantes dos governos de vários países e diversos especialistas discutiram sobre a possível proibição deste tipo de máquinas, não se conseguiu chegar a nenhum acordo.
Guerras sem responsáveis
"A verdade é que a fronteira entre este tipo de armas e sistemas, como os mísseis, que através de GPS localizam seu objetivo, não está clara", diz, afirmando que esta é a razão por que na conferência de Genebra não foi alcançado nenhum acordo sobre a proibição deste tipo de armas. Uma proibição destas características afetaria muitos tipos de armamento.
Segundo o especialista mexicano, o objetivo das novas tecnologias militares é, em primeiro lugar, "manter as pessoas longe das zonas de conflito em toda uma série de cenários de guerra", mas a esse primeiro objetivo adiciona-se outro: o de que essa distância entre as pessoas e o conflito seja, além disso, psicológica. De maneira que o tema da responsabilidade pelos atos cometidos fica relegada para um segundo plano.
Decisões erradas
"Os robôs, pelo contrário, não têm intuição", afirma o pesquisador. "O robô está programado para responder a situações básicas. É impossível programar todos os cenários."
Rojas argumenta também que as máquinas se podem enganar muito facilmente, e coloca como exemplo os foguetes que perseguem aeronaves. Essas mesmas aeronaves podem separar objetos a altas temperaturas que acabam despistando o míssil.
A questão de saber se, com o tempo, todas estas limitações podem ser solucionadas, o pesquisador mexicano volta a mostrar-se cético. Na sua opinião, "é impossível" pedir aos drones e robôs militares que aprendam a diferenciar entre "inimigos" e "não inimigos". Algo que é particularmente difícil, aponta, quando aqueles que estão envolvidos no conflito não usam uniforme."
Também não têm moral
"Creio que não se pode implementar a ética nas máquinas", diz Rojas. Como é que se ia comportar um robô assassino em frente a um grupo de terroristas entre a população civil? Os atos neste tipo de cenários requerem, para o professor, uma análise racional da situação e empatia. Qualidades todas elas longe do alcance dos robôs.
Rojas se mostra cauteloso e acredita que as máquinas não devem tomar decisões cujos resultados possam ser letais sem o consentimento ou aprovação prévia de um humano. "Alguém deve ser responsável pela situação e não culpar as máquinas."