La compréhension en langage naturel est l’avenir de A.I. Reconnaissance vocale

$config[ads_kvadrat] not found

LA MEJOR CARRERA DE CARRITOS DE LA COMPRA EN MINECRAFT TROLL ?

LA MEJOR CARRERA DE CARRITOS DE LA COMPRA EN MINECRAFT TROLL ?
Anonim

Avec la venue d’Alexa d’Amazon et la capacité constante de Siri à assumer davantage de tâches (et à devenir de plus en plus impertinente), beaucoup se demandent: quelle est la prochaine étape pour la compréhension du langage naturel et les interfaces vocales de conversation?

Il existe plusieurs entreprises au coude à coude dans cette course. La société Facebook a fait l’acquisition de Wit.ai. Vous pouvez jouer avec la démo. (Essayez cette commande: «Je veux regarder des chats.») Apple a son HomeKit et, avec lui, fait ce qu’Apple fait de mieux - casser le cul. Amazon est également à l'avant-garde avec ses Echo et Echo Dot équipés d'Alexa.

MindMeld est l’une des entreprises les plus en demande sur le plan de la compréhension du langage naturel. MindMeld fournit ses capacités de compréhension en langage naturel aux autres sociétés qui souhaitent ajouter des interfaces vocales intelligentes à leurs produits, services ou appareils. La société basée à San Francisco offre aux partenaires l'infrastructure et les options de personnalisation permettant à leurs appareils de disposer de leurs propres assistants personnels. MindMeld a récemment annoncé un tel partenariat avec Spotify, mais collabore également avec des constructeurs automobiles, des agences de défense, des sociétés de commerce électronique et bien plus encore. (Et, naturellement, il est impossible de partager beaucoup de détails de tels partenariats.)

Inverse Sam Vasisht de MindMeld a parlé de l'état du domaine de la reconnaissance vocale - mais il a rapidement souligné que la «reconnaissance vocale», en tant qu'entreprise, est désormais un «sujet banal». Ces jours-ci, il s'agit de «compréhension du langage naturel». «La reconnaissance vocale a presque atteint son apogée: après une cinquantaine d'années de développement, les IA peuvent désormais reconnaître efficacement la parole. Ces systèmes sont presque meilleurs que les humains au travail et dépasseront certainement bientôt les simples mortels.

La prochaine étape prévisible est donc, tout comme le développement de l’enfant, d’enseigner à ces systèmes comprendre la langue qu'ils peuvent maintenant reconnaître. «Cet humain est en train de parler. ce sont les mots "est très loin de" je comprends ce que dit cet humain; permettez-moi de vous aider."

Et ce pas en avant et ce développement nécessitent une interprétation de sens: Imiter la façon dont l'esprit humain traite l'information verbale. Il y a deux parties à cette équation. Le premier est l’intention: quel est le but ou le désir de l’homme en prononçant cette phrase? Un ordinateur capable d'extraire l'intention d'une phrase peut «comprendre» ce que l'être humain veut affecter X ou interagir avec y. La deuxième partie de l'équation est étroitement liée à ce processus: Entité. Le A.I. savoir comment déterminer l’entité visée, l’objet de l’intention de l’être humain.

Pour ce faire, MindMeld n'emploie pas (comme je le supposais ou l'espérais) des philosophes. Il emploie des experts en langage naturel, mais une grande partie de l'I.A. Le processus «d’apprentissage» est lui-même relativement peu actif. Si vous apprenez au système à comprendre les commandes de café, vous devez lui montrer toutes les différentes façons dont les gens pourraient vraisemblablement commander du café.

"Je voudrais un moka."

"Pourrais-je s'il vous plaît avoir une tasse de Joe?"

"Juste un grand café pour moi."

Et c’est là que les experts en langage naturel - les linguistes - entrent en jeu. Mais même cela n’est plus nécessaire, car nous pouvons externaliser les données. Ces outils vous permettent de poser la même question à des milliers de personnes et de compiler leurs réponses. Ensuite, il vous suffit d'alimenter ces réponses dans le fichier A.I., et le tour est joué: le A.I. peut réagir au large éventail de demandes de renseignements possibles. «Parmi les milliers de requêtes, nous pouvons maintenant apprendre essentiellement comment des milliards d'autres requêtes pourraient être générées», déclare Vasisht.

Inverse a demandé Vasisht, qui a longtemps été un initié dans l’A.I. et la compréhension du langage naturel, de spéculer pour nous.

MindMeld peut-il participer à un dialogue prolongé? Par exemple, si je pose une question de suivi, est-ce que le A.I. comprendre et continuer à répondre?

Oui. Cela fait partie de la conception. Si quelqu'un pose une question incomplète - par exemple, si je commande du café et que je ne précise pas la taille du café que je veux, il va revenir et dire: «Quelle taille de café avez-vous? vouloir?"

Vous attendez-vous à des progrès sur le test de Turing?

Je pense que nous sommes sacrément proches. Je veux dire, IBM Watson a fait Péril! et je pense que c’était un très bon exemple. Nous en sommes à ce stade: il se rapproche beaucoup. Tout comme, maintenant, en termes de reconnaissance de la parole, nous en sommes au point où les machines sont aussi bonnes que les êtres humains, je pense que nous serons - certainement dans les trois à cinq prochaines années - à un point où la plupart de ces voix les systèmes seront considérés comme aussi bons que les humains.

Quels types de tâches domotiques MindMeld fait-il?

Nous pouvons appliquer notre technologie à tout type de produit, tout type de service, tout type de domaine de données. La domotique en fait partie. Dans la maison, vous avez le contrôle de l'éclairage, le thermostat, les systèmes de sécurité, les systèmes audio, les systèmes vidéo, etc. Nous sommes en mesure de contrôler n’importe lequel des systèmes à condition que l’interface appropriée soit disponible.

Que souhaiteriez-vous pouvoir connecter à MindMeld dans votre propre maison?

Je pense que des cas d'utilisation plus avancés, comme parler à mon Spotify pour dire «Joue-moi la liste de lecture des Rolling Stones» ou «Joue-moi de la musique classique ce soir» - ce genre de choses serait… génial.

Quelque chose de plus inattendu ou original que vous aimeriez contrôler avec votre voix?

Les choses que je vous ai décrites sont celles que je pense sont imminentes. En d'autres termes, cela arrivera très bientôt. Je pense que ce qui ne se passera pas tout de suite, ce seront des choses telles que les micro-ondes, les machines à café et les réfrigérateurs. Faire en sorte que ces appareils soient contrôlés - je peux donc dire en gros: «Ma machine à café est-elle prête pour la préparation du café? Allumez la machine à café ”et si elle n’a pas été préparée, elle devrait revenir et dire“ Je suis désolée, mais votre machine à café n’est pas prête ”- ce genre de renseignement n’existe pas encore. Ce sera le Saint Graal: chaque appareil peut vous répondre et vous dire ce qu’il peut et ne peut pas faire. Mais nous n’en sommes pas encore là.

Que pensez-vous freine l'industrie?

Ce sont des appareils extrêmement bon marché, maintenant. Je veux dire, ce sont des appareils que vous pouvez acheter pour presque rien. Il y a dix ans, ils coûtaient beaucoup plus cher.L’intégration de nouvelles fonctionnalités augmente donc les coûts de ces appareils. En fin de compte, la proposition de valeur actuelle est très forte; la plupart de ces fabricants ne sont pas enclins à ajouter de nouvelles fonctionnalités, sauf si leur coût est très bas.

Je pense que c’en est un aspect. L’autre aspect est qu’il est question de connecter ces périphériques. Il faut donc plus qu'un simple cas d'utilisation vocale pour connecter ces appareils. Il doit y avoir plus de capacités qui doivent utiliser cette connexion avant de devenir viables.

Connaissez-vous une entreprise qui travaille sur cette dernière capacité?

Beaucoup de sociétés de semi-conducteurs travaillent sur des matrices de microphones à très bas coût. Le genre de chose que vous pouvez intégrer - à très bas coût, sur à peu près n'importe quel appareil ou application - qui permettrait une entrée vocale. Et vous n’êtes pas obligé de vous tenir à côté de ces appareils, vous pouvez parler à une trentaine de mètres. Développer cette capacité - je pense que c’est le point de départ. Et je pense que cela permettra aux gens de commencer à mettre des microphones sur des appareils, puis les autres fonctionnalités avancées suivront. Mais pour le moment, je ne connais aucune entreprise qui fabrique ce type de machine à café intelligente, de micro-ondes intelligente ou de machine à laver.

Quelle est votre meilleure estimation pour les logements entièrement intelligents et les appartements intelligents?

Aujourd'hui, nous avons presque tous les sous-systèmes essentiels dans la maison que les gens veulent automatiser, capables de l'être. Cela inclut les lumières, les thermostats, les systèmes de sécurité, les portes de garage, les serrures des portes avant, etc. Toutes ces choses peuvent être faites. Le problème concerne vraiment les prix. C’est encore au niveau des prix que ce sont surtout les premiers utilisateurs précoces et les personnes qui en ont vraiment besoin. Mais les prix sur ces produits baissent considérablement, très rapidement. Je pense que ces sous-systèmes seront probablement commercialisés en masse au cours des deux prochaines années.

L'autre chose dont j'ai parlé - l'automatisation des appareils très économiques - je pense que ceux-ci se situent probablement entre cinq et sept ans au plus tôt. Plus comme 10 ans, avant que ceux-ci deviennent une réalité. Mais, comme je l’ai dit auparavant, ce sont des choses qui vont nécessiter un certain nombre d’autres choses. Et cela pourrait se produire plus tôt si ces divers ingrédients se mêlaient plus tôt.

À quoi ressemblerait un appartement de New York ou de San Francisco en 2050, par exemple?

2050! Sensationnel. Je pense que nous serons pleinement là. Le genre de choses que nous voyons dans les films de science-fiction - où vous pouvez parler à tous les systèmes de votre maison et tout contrôler avec la voix - je pense que ce genre de capacités sera répandu. Certainement dans des villes comme New York et San Francisco.

$config[ads_kvadrat] not found