Parler dauphin avec un Pixel ? Quand Google transforme ses téléphones en traducteurs sous-marins

Non, ce n’est pas une blague : Google a bel et bien mis au point une intelligence artificielle baptisée DolphinGemma, capable de décrypter les vocalises des dauphins et de leur répondre.
Traduire une langue étrangère sur son téléphone, c’est banal. Traduire celle d’un dauphin en plein océan, ça l’est beaucoup moins. Et pourtant, c’est exactement ce que Google propose… avec son bon vieux Pixel.
Il y a Siri, Alexa… et Flipper ?
Imaginez la scène. Vous êtes en combinaison, les pieds palmés, et au lieu de marmonner dans votre tuba, vous lancez à un dauphin un petit clic-clac-sifflement. Vous le faites grâce à… votre téléphone. Non, ce n’est pas une blague : Google a bel et bien mis au point une intelligence artificielle baptisée DolphinGemma, capable de décrypter les vocalises des dauphins et de leur répondre. Le tout embarqué dans un Pixel 6 ou Pixel 9, bien au sec (ou pas) dans une coque étanche.
Ce projet un peu fou est né d’un partenariat entre Google, le Georgia Institute of Technology et le Wild Dolphin Project, une équipe de scientifiques qui suit depuis quarante ans les pérégrinations des dauphins tachetés de l’Atlantique. Ces cétacés n’ont pas attendu Elon Musk pour développer une forme de communication complexe faite de sifflements, de clics et de mystérieuses « burst pulses » — sortes de cris ultra-rapides qui évoquent à la fois un modem des années 90 et un beat techno improvisé.
Des sons étranges et un téléphone qui comprend : science-fiction ou réalité ?
Grâce à ces données collectées pendant des décennies, Google a pu nourrir son IA DolphinGemma. Et surprise : pas besoin de supercalculateur ni de serveur glouton. Le modèle fonctionne directement sur un Pixel, à bord d’un dispositif portable au doux nom de CHAT (pour Cetacean Hearing Augmentation Telemetry). Le tout tient dans un harnais porté par le plongeur, avec écouteurs à conduction osseuse pour ne pas rater un seul clic de conversation.
Selon Android Authority; le système repose sur un mécanisme baptisé SoundStream tokenizer qui permet d’analyser les sons en temps réel. Il suffit donc qu’un dauphin siffle quelque chose d’un peu original pour que l’IA l’analyse, le compare à sa base de données, puis le traduise instantanément dans les écouteurs du chercheur. Et mieux encore : l’humain peut répondre avec des sons artificiels, soigneusement générés pour imiter le style local.
Vous avez dit « jouet » ? Et si les dauphins nous comprenaient vraiment ?
L’une des expérimentations les plus cocasses (ou ambitieuses, c’est selon) consiste à attribuer à certains objets des sons spécifiques. Par exemple, un sifflement désignerait une balle, un autre de l’herbe marine. En entendant ce son, le dauphin pourrait le reproduire à son tour — et demander le jouet en question. Une sorte de langage partagé, version piscine olympique.
Dans une interview au Scientific American, Thad Starner, chercheur chez Google DeepMind, confie son excitation : « Quand j’ai entendu la première pulsation générée par l’IA, j’ai littéralement dansé dans la pièce. » On le comprend. Il s’agissait de la première fois que son logiciel parvenait à imiter une burst pulse avec une telle précision.
Et pourtant, les chercheurs restent prudents. Ce n’est pas parce qu’un dauphin répète un son qu’il en comprend la signification. « C’est peut-être simplement un apprentissage par renforcement, comme on enseignerait à un chien à s’asseoir », avertit Thea Taylor, du Sussex Dolphin Project.






