Connexion    



La paresse intrinsèque chez l'Homme fera peut-être qu'il sauvera ses langues !

Comme on peut le constater dans bien des cas, entre l'escalator et les escaliers, la plupart des gens préfèrent l'escalator : ça va plus vite et c'est moins fatiguant.

Pour l'apprentissage des langues étrangères, c'est un peu la même chose : entre faire l'effort d'apprendre plusieurs langues étrangères et de n'apprendre que l'anglais dans l'espoir que ça suffise pour se faire comprendre à l'étranger, souvent, c'est le choix du seul anglais qui l'emporte. 

Nous sommes programmés pour la paresse dit l'article qui suit, alors pour nous qui essayons de nous battre contre la politique du tout-anglais, voilà un obstacle de plus à franchir.

Et si cet obstacle pouvait être franchi grâce aux progrès de la technologie, grâce, notamment, à la traduction automatique.

En effet, au train où vont les choses, plus rien n'est impossible en matière de technologie moderne, et il est fort à parier que dans les années qui viennent chaque téléphone pourra servir de traducteur automatique. Ainsi, pourra-t-on parler dans sa langue, tandis que l'interlocuteur, en face, recevra la traduction automatique et en simultanée, dans son oreillette.

Le problème des langues sera alors résolu, et ainsi chacun pourra apprendre une, ou des langues étrangères, non pas poussé par l'attraction hégémonique que représente cette langue, mais seulement poussé par l'envie de découvrir une culture, une façon de vivre et de pensée.

Tout n'est donc pas perdu !

 

Nous sommes programmés pour la paresse

Cet article est signé par Boris Cheval, de l'Université de Genève, par Matthieu Boisgontier de la University of British Columbia et par Philippe Sarrazin, de l'Université Grenoble Alpes. La version originale de cet article a été publiée sur le site The Conversation dont franceinfo est partenaire.

Le conflit entre raison et émotions

Si vous devez vous faire violence pour sortir de votre canapé et vous adonner à une activité physique, rassurez-vous, vous n’êtes pas seul dans ce cas ! Depuis des décennies, des campagnes de communication nous encouragent à faire de l’exercice. Pourtant, environ 30 % des adultes ont une activité physique insuffisante. Et cette inaction est en constante augmentation, partout sur la planète.

La France ne fait pas exception à la règle. Si « faire davantage d’activité physique » se classe dans le top 5 des bonnes résolutions du jour de l’An, 3 Français sur 4 ne sont pas suffisamment actifs. Pourtant, selon l’Organisation mondiale de la santé, 3,2 millions de décès sont attribuables à ce manque d’activité physique chaque année, soit un mort toutes les 10 secondes.

Un constat qui soulève une question : pourquoi sommes-nous incapables d’être physiquement actifs alors que nous en avons l’intention ?

Afin de rendre compte de cette lutte qui s’opère entre nos intentions saines et des pulsions contraires, des théories scientifiques, comme les modèles à double processus, ont été développées. Dans ces modèles, les mécanismes qui expliquent notre comportement sont divisés en deux catégories : les mécanismes rationnels, gérés par le système réfléchi, et les mécanismes émotionnels, gérés par le système impulsif. Ce dernier organise la partie automatique et instinctive de nos comportements. Il peut faciliter ou, au contraire, empêcher le système réfléchi de mettre en place nos intentions.

[...]

La loi du moindre effort : un legs encombrant de l’évolution

Si cette attraction vers la sédentarité paraît paradoxale aujourd’hui, elle est logique lorsqu’on l’examine à la lumière de l’évolution. En effet, quand l’accès à la nourriture devenait difficile, les comportements sédentaires permettaient de sauvegarder l’énergie qui s’avérait décisive pour la survie.

Cette tendance à minimiser les efforts inutiles pourrait expliquer la pandémie d’inactivité physique actuelle puisque les gènes qui permettent aux individus de survivre sont plus susceptibles d’être présents dans les générations suivantes.

[...]

Pour lire l'article dans son intégralité, merci d'aller sur  : https://theconversation.com/nous-sommes-programmes-pour-la-paresse-113770

 

La traduction automatique fait des pas de géant

Les nouveaux moteurs de traduction automatique basés sur le « deep learning » ont fait faire un bond en avant à la qualité du rendu, notamment dans les disciplines techniques. Les oeuvres littéraires ou poétiques leur échappent toutefois encore...

Un faux mur végétal, des fauteuils d'inspiration vintage et, au plafond, des conduites d'aération et des gaines électriques apparentes... L'accueil du laboratoire de recherche en intelligence artificielle de Facebook France tranche avec le design « futuro tech » du hall du centre d'affaires #cloud.paris dans lequel il a pris place. Le message est clair : pas question pour le premier des réseaux sociaux de renoncer à l'ambiance start-up.

Ou à la convivialité qui va avec. L'allure décontractée d'Antoine Bordes, le jeune directeur du labo, est à l'avenant.

Cet ancien du CNRS, expert en « machine learning », a fait de ce centre l'un des plus performants dans les techniques de traduction automatique. Un enjeu stratégique pour Facebook, qui réalise déjà plus de 4 milliards de traductions par jour. Elles s'affichent automatiquement sur la « timeline », en lieu et place des messages reçus en langue étrangère. Le laboratoire de Facebook n'est pas le seul à plancher sur ces techniques. Google, Microsoft, Amazon, Baidu, Systran... les équipes de recherche dans ce domaine sont aujourd'hui légion, mais elles se concentrent sur les plus courantes des quelque 1 800 langues vivantes recensées dans le monde.

Facebook a, lui, choisi de creuser le sillon des idiomes plus exotiques, pour lesquels il n'existe pratiquement pas de texte déjà traduits pouvant servir de référence, comme le népalais, le pashto, l'ourdou, le swahili ou le khmer. Il s'agit d'en tirer un modèle quasi universel applicable à toutes les paires de langues. « Nous avons présenté notre moteur de traduction dite non supervisée en novembre dernier à Bruxelles, lors de l'une des plus importantes conférences annuelles en traitement du langage naturel. Et
allons bientôt passer au stade de la mise en production », indique Antoine Bordes.

L'intelligence artificielle au travail

Cette nouvelle avancée dans la traduction automatique témoigne de l'effervescence qui agite ce secteur depuis environ deux ans, en fait depuis qu'on est parvenu à appliquer les modèles de l'intelligence artificielle, inspirée du fonctionnement du cerveau humain, à la traduction de texte. La technique baptisée NMT (Neural Machine Translation, traduction automatique neuronale) a fait faire un bond de géant à la qualité du rendu. Tous ceux qui avaient renoncé à Google Translate, à cause de ses contresens et ses incohérences parfois cocasses, seraient surpris. Bien qu'encore imparfaite, la traduction proposée est désormais beaucoup plus fluide.

Lors d'un test réalisé en mars dernier par les équipes de Microsoft sur des extraits de journaux traduits du chinois vers l'anglais, la « machine » a même réussi à égaler l'humain. De quoi faire fantasmer tous ceux qui veulent en finir avec l'apprentissage des langues. D'autant que, couplés aux avancées de la reconnaissance vocale, ces nouveaux modèles ont favorisé l'émergence de différents dispositifs d'oreillettes à brancher sur son smartphone pour des conversations orales (voir encadré p. 26). Ces progrès sont aussi l'occasion, pour les entreprises qui dépensent beaucoup en traduction, de faire de substantielles économies.


Une cartographie des mots

Pourquoi a-t-il fallu attendre ces deux dernières années pour observer de tels progrès ? Bien qu'appliqués depuis les années 90 à la reconnaissance visuelle puis vocale, les modèles de l'intelligence artificielle ont longtemps buté sur le texte. Impossible de comparer ou superposer deux mots et a fortiori deux phrases, comme on peut le faire avec les pixels d'une image ou la fréquence d'un son. Mais dans les années 2000 a été mise au point une technique dite de « word embedding », qui consiste à placer dans un vaste espace virtuel en trois dimensions tous les mots d'une langue.

En prenant soin de les disposer de manière plus ou moins proche, en fonction de leur sens et des occurrences où ils apparaissent ensemble, comme chat, chien, poils, pâtée, vétérinaire... Grâce à ce « mapping », on a attribué à chaque mot un vecteur (un ensemble de coordonnées) et pu le manipuler comme une valeur dans une fonction mathématique. Restait à adapter les principes connus du « deep learning » à la traduction. Une tâche facilitée par l'arrivée de processeurs plus puissants : un système NMT se forme à partir d'un réseau de près de 500 millions de « neurones » artificiels qui véhiculent un signal et a, comme le cerveau humain, la capacité d'être entraîné et donc de se corriger. Le premier article universitaire décrivant ce fonctionnement est paru en 2014. Deux ans plus tard, Google annonçait la mise en production de cette technique sur son moteur.

Cours de syntaxe pour machine

Avant d'utiliser ces modèles « neuronaux », le secteur a surfé sur deux grandes approches techniques. Apparue dans les années 50, la première avait pour ambition d'apprendre la grammaire à une machine. « Le logiciel procédait à une analyse syntaxique de la phrase puis la traduisait par morceaux, qu'il assemblait ensuite. Un peu comme un étranger qui essaye de s'exprimer mécaniquement dans une langue apprise à l'école », explique Jean Senellart, directeur général de Systran, une entreprise qui a longtemps été la référence. Mais les erreurs étaient courantes et les traductions peu fluides.

Les statistiques appliquées aux phrases

Expérimentés dès la fin des années 2000 par IBM, les moteurs de traduction fondés sur les statistiques changent radicalement la donne. Cette fois, le logiciel n'a plus aucune connaissance syntaxique. On lui donne juste à avaler d'immenses corpus de textes bilingues déjà traduits sur lesquels il va s'appuyer pour découper la phrase en séquences de mots et proposer pour chacune la solution la plus fréquente. C'est un peu comme si on avait brûlé tous les bouquins de grammaire pour partir en immersion dans le pays. « Même si l'assemblage laisse souvent à désirer, ce modèle fait beaucoup moins de fautes d'accord grossières. Les erreurs et les incohérences sont plutôt d'ordre sémantique », relève Jean Senellart.

Ce type de programmes mettra tout de même près de dix ans pour se perfectionner et devenir la nouvelle norme. Il faudra attendre 2007 pour que Google Translate, qui utilisait jusque-là les services de traduction automatique basés sur les règles de Systran, s'en émancipe pour lancer son propre moteur. Ici, la performance du système expert ne dépend plus du codage grammatical et linguistique, mais de la qualité des corpus de traductions bilingues servant de référence. Restait à trouver des documents fiables entre paires de langues. À l'époque, tout le monde s'est précipité sur les mêmes sources publiques disponibles : les transcriptions des séances de l'ONU ou du Parlement européen.

« Pendant un temps, on a vécu avec l'idée qu'il suffisait d'augmenter la taille des bases de données pour améliorer la qualité des traductions », note Jean Senellart. Mais on a fini par déchanter. Surtout après l'arrivée en 2016 de la troisième génération de « traducteurs » basés sur l'intelligence artificielle. « Avec les NMT, on a fait d'un seul coup autant de progrès qu'en dix années de moteurs statistiques », souligne Julie Cattiau, product manager chez Google AI. Pas étonnant que tout le monde ait rapidement basculé. Tous les labos de pointe ont joué la carte de l'open source, ce qui a permis d'alimenter la recherche. En à peine deux ans, déjà trois modèles de moteurs de traduction neuronaux se sont succédé.


L'Open source n'empêche pas la rivalité

La transparence de la plupart des grands centres de recherche n'implique pas que tous les systèmes se valent ou qu'il n'y ait pas de concurrence. Tout comme pour les systèmes statistiques, la qualité de la traduction des NMT dépend totalement de celle du corpus avec lequel on entraîne le système.

La différence, c'est que le logiciel ne va pas proposer la traduction statistiquement la plus probable, mais utiliser des textes déjà traduits pour faire du « rabâchage » et reconstituer la syntaxe de chaque langue. Selon qu'on alimente le programme avec du langage parlé ou un discours institutionnel, le rendu ne sera pas le même. Or, pour un grand public qui utilise de plus en plus ces applis dans la vie courante, il est difficile de traduire un SMS, un post ou un menu avec pour référence les débats sur une directive de l'Union européenne.

Enrichir sans cesse les bases de données

Les développeurs utilisent donc désormais d'autres corpus, comme les recueils de sous-titres de films. Le NMT de l'allemand DeepL a pu s'appuyer sur les bases de données très documentées de sa maison mère, le traducteur en ligne Linguee. Pour les langues les moins documentées, Google, qui traduit plus d'un milliard de mots par jour, dispose aujourd'hui d'une communauté de près de 10 millions de contributeurs qui alimentent les corpus avec des traductions depuis ou vers l'anglais. « Ca nous permet d'ajouter régulièrement de nouvelles langues au catalogue », précise Julie Cattiau.

Le gouvernement du Kazakhstan a encouragé sa population à pratiquer l'exercice. Faire entrer sa langue au « répertoire » de Google Translate est devenu un enjeu pour tous les pays. Aujourd'hui, la firme américaine en propose 103. Soit plus de 10 000 paires. Mais la majorité passe encore par l'entremise de l'anglais comme langue pivot. Ce qui augmente le risque d'erreurs.

Des Logiciels pointus pour le business

La compétition entre opérateurs est d'abord une bataille d'image. Chacun veut imposer sa référence et attirer la plus grosse communauté de développeurs. Sur un plan strictement commercial, tout le monde n'affiche pas les mêmes intérêts. Pour Facebook, l'enjeu consiste surtout à faciliter les échanges entre communautés linguistiques. D'où ses recherches sur les langues exotiques, afin de faire émerger un nouveau modèle indépendant des textes déjà traduits. Google, Microsoft (Skype), Amazon voire le chinois Baidu, eux, vendent de la traduction aux entreprises, un marché évalué à près de 45 milliards d'euros.

« Il est beaucoup plus facile d'entraîner un moteur neuronal spécialisé dans un domaine d'activité spécifique, comme le tourisme ou la santé, qu'un moteur générique, estime Jean Senellart. Avec 500 phrases extraites du corpus de traduction fourni par un client et deux jours d'entraînement, on peut aujourd'hui formater un NMT professionnel. Le tout avec des résultats beaucoup plus performants que ceux de Google Translate. » Sachant que pour des raisons de confidentialité, les entreprises sont très réticentes à utiliser l'outil grand public du géant de Mountain View, car celui-ci se réserve un droit d'utilisation sur le texte traduit.

« Désormais, la qualité d'une traduction du français vers l'anglais est d'un niveau souvent supérieur à celui de beaucoup de nos salariés dans la langue de Shakespeare. Et tout à fait suffisant pour être utilisé sur beaucoup de documents de travail », constate Vansi Vuong, au Crédit Agricole. Là où hier l'entreprise dépensait près de 1 million d'euros par an en traduction « humaine », elle s'en sort désormais avec une licence à... 30 000 euros. Le son du glas pour les traducteurs ? « On aura toujours besoin d'eux car les NMT ne peuvent offrir la qualité irréprochable requise pour tous les documents officiels destinés à sortir de l'entreprise », assure Vincent Nguyen, directeur général de l'agence de traduction Ubiqus. Reste que leur métier se métamorphose. Les nouveaux outils vont les orienter vers un travail de postédition. Probablement moins bien rémunérés, ils vont devoir miser sur les volumes, car c'est précisément dans les champs professionnels, linguistiquement plus formatés, que les marges de progrès de ces systèmes experts sont les plus importantes.

Côté grand public en revanche, personne n'imagine encore arriver à un dispositif qui égale la traduction humaine. S'ils ont passé un cap pour les petites choses de la vie courante, les nouveaux moteurs butent toujours sur une difficulté majeure : ils ne savent traduire les phrases qu'isolément. « Le contexte au niveau du paragraphe leur échappe », appuie Jean Senellart. Difficile donc de leur confier un texte littéraire, riche en jeux de mots, attelages, allitérations, double sens, références à la culture populaire... A fortiori de la poésie. Pour traduire Edgar Allan Poe, il fallait bien Charles Baudelaire, pour saisir l'univers de Jorge Luis Borges, un moteur ne saurait égaler Roger Caillois, ni Marguerite Yourcenar pour restituer les nuances de Constantin Cavafy.


Dans l'oreillette

De la traduction automatique d'un texte à celle d'une conversation, il n'y a qu'un pas que les Google, Microsoft et autres Baidu ont franchi. Il « suffit » de combiner les techniques de la traduction neuronale avec celles de la reconnaissance vocale pour produire une réponse instantanée, via un smartphone et des écouteurs. Après avoir réservé ce service aux porteurs d'un smartphone maison Pixel, couplé avec ses Pixel Buds, Google l'a ouvert en octobre dernier à tous les casques compatibles avec Google Assistant, associés à un portable Android. 40 paires de langues sont aujourd'hui disponibles, dont le français. Baidu a annoncé à la même époque un système capable de prévoir la fin d'une phrase en train d'être prononcée. Loin d'être encore « fluents », ces systèmes butent notamment sur les intonations et les hésitations.

Le premier best-seller traduit par une IA

Publié en 2016 par un trio de chercheurs, Deep Learning est vite devenu, dans les pays anglo-saxons, un best-seller scientifique. Elon Musk, patron de Tesla et de SpaceX, en avait même fait son livre de chevet. Restait à le mettreà la portée d'un public francophone. Le cabinet de conseil en data science Quantmetry y a vu l'occasion de faire un coup en utilisant pour cela un moteur de traduction neuronal. L'agence a monté un partenariat avec l'allemand DeepL qui a fourni son moteur. Mais il a fallu créer un dictionnaire de règles pour toutes les formules mathématiques. « 15 à 20% du texte ont dû être modifiés, reconnaît Nicolas Bousquet, directeur scientifique de Quantmetry. Mais nous avons gagné énormément de temps et d'argent. » Une nouvelle piste pour l'édition scientifique.

Stefano Lupieri / Journaliste Les Echos Week-End

Source : weekend.lesechos.fr, le vendredi 1er mars 2019

Note de l'Afrav : pardon pour les anglicismes, mais nous ne pouvons pas intervenir sur le texte.

 

Traducteurs en ligne

LA TRADUCTION AUTOMATIQUE

Traducteurs en ligne :

Navigateurs avec traducteur intégré :

 

 

 

 




Publié par Régis RAVAT le 06 avril 2019

0 personne aime cet article.


Orthographe, corrections : contact.sy@aliceadsl.fr

Aidez-nous, Soutenez-nous

Nous ne recevons aucune subvention !


Inscription à l'infolettre!

S'il vous plaît, veuillez entrer votre courriel

Digital Newsletter

Pour vous desinscrire, veuillez cliquer ici ».