Technologie
Technologie
Bonjour, vous êtes sur la page de la technologie Linguineo. Nous vous en remercions. Les informations que vous trouverez ici vous permettront de tout savoir sur la technologie qui se cache derrière Linguineo. Il vous faudra un peu de concentration pour tout lire. Mais puisque vous avez cliqué sur cette page, c’est que vous devez avoir l’intelligence nécessaire.
TLDR :
Chez Linguineo, nous développons des projets sur mesure où les utilisateurs apprennent une langue. Au cœur de ces projets se trouve notre technologie unique de voicebot et de reconnaissance vocale. Entraînez-vous à parler et à écrire en discutant avec des personnages virtuels, alias l’IA conversationnelle.
Bon, voici maintenant la longue explication. Notre rédactrice a essayé de la rendre un peu plus amusante à lire, alors merci de l’avoir essayée. Elle sera ravie ! Attention, si nous disons une fois de trop que nous sommes les meilleurs dans ce que nous faisons, c’est que nous essayons de vendre ce produit.

1. Notre propre reconnaissance vocale pour les apprenants de langues
(par exemple, reconnaissance vocale utilisable pour les locuteurs non natifs / apprenants de langues)
Qu’est-ce que c’est ?
Les modèles de reconnaissance vocale disponibles dans le commerce ne fonctionnent pas suffisamment bien pour reconnaître la parole non native (>20 % de taux d’erreur sur les mots), c’est pourquoi nous avons créé des modèles de reconnaissance vocale personnalisés (<10 % de taux d’erreur sur les mots). Bien qu’il serait formidable de pouvoir utiliser une solution prête à l’emploi et de ne plus avoir à maintenir nos propres modèles de reconnaissance vocale, nous ne pensons pas que cela se produira bientôt, en particulier pour les langues à faibles ressources, même avec toutes les avancées rapides en matière d’intelligence artificielle. Récemment, nous avons également collaboré avec le groupe de recherche Esat de la KULeuven pour essayer de pousser ces propres modèles encore plus loin.
Qu’avons-nous créé nous-mêmes ?
- Sélection intelligente de modèles (par exemple, le système sait quel est le meilleur modèle à utiliser pour quel apprenant). Pour ce faire, il doit disposer de quelques phrases transcrites manuellement (par un humain). Une fois qu’il dispose de ces phrases, il calcule l’erreur sur celles-ci pour différents modèles et, sur cette base, il connaît la précision de la RPA pour cet utilisateur et sait quel est le meilleur modèle à sélectionner.
- Modèles de reconnaissance vocale par apprentissage profond formés sur mesure qui partent d’un modèle de base mais sont adaptés à l’aide de l' »apprentissage par transfert » (ce qui signifie supprimer la fin du réseau neuronal et réentraîner la fin avec un ensemble limité de données de niche). Nos modèles actuels pour les locuteurs non natifs en sont un exemple.
2. Outil de création de contenu pour les conversations
(par exemple, les personnes non techniques peuvent rapidement créer une conversation avec n’importe quelle contrainte sur n’importe quel sujet ou histoire).
Qu’est-ce que c’est ?
Les créateurs de contenu souhaitent souvent contrôler le contenu d’une conversation dans les moindres détails pour des raisons didactiques ou autres. Il n’existe pas de solutions standard qui facilitent les conversations d’apprentissage des langues, mais notre composant le permet. Cet outil de création de contenu présente différents degrés de difficulté. Une première version – ouverte ou dirigée – peut être créée à partir de quelques entrées textuelles simples, après quoi la conversation peut être pratiquée. Cette conversation peut être modifiée à différents degrés de complexité, mais cela n’est nécessaire que dans des cas spécifiques.
Qu’avons-nous créé nous-mêmes ?
- Un modèle conversationnel piloté très riche et un moteur de chatbot, avec lequel tout type de conversation peut être créé sous forme d’organigramme, qui peut s’intégrer de manière transparente avec n’importe quel modèle d’IA générative si nécessaire. Cette composante s’appuie sur la création d’une « grammaire formelle » pour le langage, mais alors que le monde universitaire tente de le faire de manière exhaustive (en perdant 0 % de l’information), nous le faisons d’une manière beaucoup plus pratique, ce qui rend la chose beaucoup plus réalisable. Nous avons également développé un outil de création de contenu qui permet de créer des conversations en 20 minutes, mais qui permet également aux personnes formées de modifier chaque élément d’une conversation d’apprentissage linguistique (structure, tâches données, quelle adaptabilité, quel type de réponse, comportement de l’UX, du robot,…).
- Un système d’échafaudage composé de plusieurs éléments permettant à la conversation elle-même d’interpréter la réponse et de formuler une réponse. Les cinq parties typiques de cette chaîne : les systèmes de mise en cache, la détection d’intention, la similarité des phrases, les modèles plus petits basés sur l’apprentissage profond BERT et un LLM régulier ou personnalisé à la fin. Les premières parties sont les plus rapides et les moins chères à exécuter, les dernières sont les plus lentes et les plus chères (mais les plus puissantes). Chacun de ces sous-systèmes fait l’objet d’une longue explication. Le LLM personnalisé à la fin est actuellement porté à un niveau supérieur à l’état de l’art en collaboration avec le groupe de recherche IDLab de l’UGent dans le cadre de notre projet de recherche en cours Capture.
OK ! Cela fait beaucoup à assimiler. Faites donc une pause avec cette interruption humoristique :
Deux scientifiques entrent dans un bar :
« Je prendrai un H2O. »
« Je prendrai aussi un H2O. »
Le barman leur donne de l’eau à tous les deux parce qu’il est capable de distinguer les tons limites qui dictent la fonction grammaticale des homonymes en position de coda ainsi que le contexte pragmatique.
Revenons à la partie technique !
3. Algorithme d'adaptabilité
(par exemple, en établissant rapidement un profil détaillé des apprenants et en rendant chaque exercice de conversation utile pour presque tous les apprenants).
Qu’est-ce que c’est ?
L’algorithme d’adaptabilité ajoute une adaptabilité fine à nos conversations d’apprentissage des langues et résout principalement le problème de donner à chaque apprenant un élément utile avec le bon soutien. Les débutants recevront des tâches très faciles avec beaucoup de soutien, les apprenants qui connaissent bien la langue mais qui ont un fort accent recevront des tâches et un soutien sur l’expression orale, les personnes qui sont avancées recevront un soutien minimal, les personnes qui sont meilleures à l’écrit qu’à l’oral recevront des exercices et un soutien sur l’écriture,…
Qu’avons-nous créé nous-mêmes ?
- Un système permettant de déduire un profil riche de l’apprenant et de l’élément à partir des « données ouvertes » (comme décrit dans notre article sur l’adaptabilité).
- Un système d’auto-apprentissage qui utilise le profil riche de l’apprenant et de l’élément pour prédire ce qui est un « bon élément suivant » pour l’apprenant.
Nous avons publié un article de blog expliquant cette approche en détail ici.
Nous n’avons pas non plus créé cet algorithme nous-mêmes. Nous l’avons créé en collaboration avec le groupe de recherche Itec de la KULeuven.
4. Feedback correctif personnalisé et analyse de la prononciation
Qu’est-ce que c’est ?
Un système capable de donner un feedback correctif détaillé sur la grammaire et la prononciation, en tenant compte du profil de l’apprenant.
Qu’avons-nous créé nous-mêmes ?
- Un composant d’analyse de la prononciation qui peut fournir des informations détaillées sur la prononciation d’une phrase prononcée par l’apprenant, au niveau du mot et du phonème.
- Un composant de rétroaction corrective en couches qui peut donner une rétroaction grammaticale détaillée sur n’importe quel énoncé de l’apprenant.
Il est évident que nous n'avons pas créé toutes les technologies nous-mêmes
Il est également important de comprendre que nous utilisons de nombreux composants de pointe que nous n’avons pas développés nous-mêmes. Par exemple, pour la synthèse vocale, nous agrégeons principalement les plus grands fournisseurs de synthèse vocale tels que Microsoft, Google, Amazon, ElevenLabs et Acapela, avec seulement quelques composants propres construits autour d’eux. Pour la reconnaissance vocale, nous avons construit notre propre moteur, mais l’une des caractéristiques de ce moteur est la « sélection intelligente de modèles », et nous pouvons ajouter n’importe quel modèle de reconnaissance vocale externe ou API à nos propres modèles. Pour les conversations ouvertes, nous nous basons évidemment sur des modèles de base.
On nous pose parfois la question suivante : « L’état de l’art ne vous rattrape-t-il pas ? ». C’est exactement le contraire, grâce à l’approche modulaire. Nous avons l’impression de nous éloigner chaque année un peu plus de l’état de l’art pour nos cas d’utilisation particuliers.
Ce n'est pas une question de technologie. Pas vraiment.
- combiner les éléments constitutifs d’une manière approuvée par les experts du domaine, pour laquelle nous collaborons avec des groupes de recherche, des éditeurs et un vaste réseau d’experts liés à l’apprentissage des langues,
- avoir la meilleure UX, après plus de 50 tests utilisateurs, des tonnes de connaissances sur les interfaces des chatbots/voicebots pour différents publics, et en travaillant avec des professionnels de l’UX,
- la conception de jeux pour maintenir les apprenants aussi motivés et engagés que possible, en travaillant avec des professionnels du jeu.
Nous ne sommes pas une entreprise purement technologique, mais une entreprise qui essaie de combiner l’expertise technique, didactique, UX et de jeu dans de grands produits.