El vídeo completo dura 10 minutos, y en él, Rick Rashid, jefe de Microsoft Research, explica como funciona y como utilizan las redes neuronales profundas para crear un sistema de reconocimiento de voz mucho mejor que el de otros métodos anteriores.
Pero para quien quiera simplemente verlo en acción, empieza en el 6:30, pasando de inglés a mandarín. Y si además quieres experimentar un trío lingüístico, basta con que pongas los subtítulos de YouTube, y los traduzcas a otro idioma.
También nos comenta que gracias a las últimas mejoras, el error es “tan sólo” de una palabra cada siete u ocho, y que siguen disminuyéndolo.
Un proyecto genial que podría derribar las barreras lingüísticas que existen en el mundo y que esperamos que llegue cuanto antes al consumidor final. Eso sí, antes de que la ONU empiece a utilizarlo espero que mejoren el error, que una palabra fuera de contexto podría liarla parda y no sería muy gracioso que comenzara la tercera guerra mundial por una “interpretación libre”… ¿Será éste el verdadero plan de Skynet para acabar con nosotros? [The Next Web]
Los usuarios denunciaban que la compañía los había rastreado incluso cuando usaban el modo privado…
El Instituto Valenciano de Competitividad Empresarial financiará aquellas iniciativas que puedan solucionar incertidumbres científicas o…
Solo en el cuarto trimestre las empresas emergentes del país han levantado 1.500 millones de…
La región tiene 13 scaleups y destaca por sus empresas emergentes de salud y agrotech.
Valencia ha atraído en el primer semestre del año 30 millones de euros de inversión…
El diario estadounidense demanda a las dos compañías tecnológicas por haber usado sus contenidos para…