Muitos dos vídeos online estão a imitar o Gibberlink, uma tecnologia que existe, mas que não é uma linguagem "secreta", disse o seu fundador à Euro.
Um vídeo viral que mostra três chatbots diferentes a falar na sua própria "língua secreta" acumulou centenas de milhares de visualizações em diferentes plataformas.
O vídeo mostra três chatbots a falar ao telefone em inglês, no qual discutem "o número do crachá de um empregado".
Quando as máquinas se apercebem de que estão a falar com outros bots, perguntam umas às outras se devem mudar para "Gibberlink", o que faz com que comecem a emitir ruídos agudos, naquilo que parece ter saído de um filme de ficção científica.
Uma moda ou uma tecnologia real?
O Gibberlink - um termo que combina "gibberish" e "link" - é real. Embora a utilização desta tecnologia seja limitada, permite que os motores de IA comuniquem na sua própria língua.
A Euro pediu a Anton Pidkuiko, cofundador da Gibberlink, que analisasse uma série de clips online.
"Muitos dos vídeos estão a imitar uma tecnologia existente - mostram telefones que não estão realmente a comunicar e não há sinal entre eles, em vez disso, os sons foram editados e os visuais foram retirados do ChatGPT".
Os falsos vídeos online que pretendem mostrar o software Gibberlink começaram a surgir depois de a tecnologia ter sido criada em fevereiro por Pidkuiko e pelo colega engenheiro de IA Boris Starkov, durante uma hackathon tecnológica de 24 horas realizada em Londres.
A dupla combinou o ggwave - uma tecnologia de código aberto existente que permite a troca de dados através do som - com a inteligência artificial.
Assim, embora a IA possa comunicar na sua própria língua, não é "secreta", uma vez que se baseia em dados de código aberto e é codificada por humanos.
Para Pidkuiko, a tecnologia é comparável aos códigos QR. "Todos os artigos de supermercado têm um código de barras que torna a experiência de compra muito mais eficiente. O Gibberlink é essencialmente este código de barras - ou pense nele como um código QR - mas com som. Os humanos podem olhar para um código QR e ver apenas peças a preto e branco. Mas os códigos QR não assustam as pessoas".
Para que é que a Gibberlink será utilizada no futuro
Embora a utilização da tecnologia Gibberlink seja muito limitada atualmente, os seus criadores acreditam que se tornará mais comum: "atualmente, a IA é capaz de fazer e receber chamadas telefónicas. Com o tempo, assistiremos a um aumento do número destas chamadas de robôs e, essencialmente, veremos cada vez mais IA a trocar mensagens", afirma Pidkuiko.
Embora esta tecnologia apresente o risco de privar os seres humanos de interações significativas, bem como de substituir mais uma vaga de empregos desnecessários, para Pidkuiko Gibberlink seria um meio de maximizar a eficiência.
"Se gerirmos um restaurante e tivermos um número de telefone para o qual as pessoas ligam para reservar mesas, por vezes recebemos chamadas em diferentes línguas. No entanto, se for um robot que fala todas as línguas e está sempre disponível, a linha nunca fica bloqueada e não há problemas linguísticos", afirmou Pidkuiko.
"Outra forma de utilizar a tecnologia é quando se quer reservar um restaurante, mas não se quer telefonar para 10 sítios diferentes para perguntar se têm espaço, pode-se pedir à IA que faça a chamada e ao restaurante que a receba. Se puderem comunicar mais rapidamente na sua própria língua, faz sentido", concluiu Pidkuiko.
Preocupações mais amplas
No entanto, os receios sobre o que poderia acontecer se os humanos se tornassem incapazes de interpretar as comunicações da IA são reais e, em janeiro, o lançamento do software de IA DeepSeek R1 fez soar o alarme.
Os investigadores que estavam a trabalhar na tecnologia revelaram que incentivaram o software a encontrar as respostas certas, independentemente de o seu raciocínio ser compreensível para os humanos.
No entanto, isto levou a que a IA começasse a mudar espontaneamente do inglês para o chinês para obter um resultado. Quando os investigadores forçaram a tecnologia a manter uma única língua - para garantir que os utilizadores pudessem seguir os seus processos - a sua capacidade de encontrar respostas foi prejudicada.
Este incidente levou os especialistas da indústria a preocuparem-se com o facto de que incentivar a IA a encontrar as respostas corretas, sem garantir que os seus processos possam ser desvendados por humanos, poderia levar a IA a desenvolver linguagens que não podem ser desvendadas.
Em 2017, o Facebook abandonou uma experiência depois de dois programas de IA terem começado a conversar numa língua que só eles entendiam.