Y es que, para que os hagáis una idea, hacer algo prácticamente similar con un smartphones es trivial, pero se ve que a Matt Richardson le gustan los retos, además de que su cámara es básicamente una prueba de concepto para un curso sobre cámaras computacionales.
Antes de que creáis que dentro de algo tan pequeño se pueda albergar a una especie de Skynet capaz de reconocer imágenes y describirlas, hay que decir que en realidad tiene un poco de truco.
Lo que hace la cámara es conectarse a Internet y madar la imagen al servicio de Amazon Mechanical Turk, que pasa tareas complicadas para los ordenadores, como describir imágenes, a humanos. Por tanto la descripción la hace gente y no un sistema de IA.
Luego, utilizando una pequeña impresora térmica se obtiene la descripción, que para leerla es necesario por supuesto poder ver, por lo que es un poco absurdo si tratamos de buscarle algún tipo de utilidad directa.
Pero lo importante de esta cámara es como se ha conseguido unir toda esta funcionalidad, utilizando un BeagleBone y permitiendo un tiempo relativamente rápido desde que se saca la foto hasta que se imprime la descripción, entre 3 y 6 minutos.
¿Serviría esto para ciegos? Probablemente, pero sería ridículo hacerlo cuando con un smartphone puedes además hacer que te lea la descripción y te de muchos más detalles con un interfaz más fácil de usar y sin necesidad de crear nuevo hardware innecesario. [NY Times]
Los usuarios denunciaban que la compañía los había rastreado incluso cuando usaban el modo privado…
El Instituto Valenciano de Competitividad Empresarial financiará aquellas iniciativas que puedan solucionar incertidumbres científicas o…
Solo en el cuarto trimestre las empresas emergentes del país han levantado 1.500 millones de…
La región tiene 13 scaleups y destaca por sus empresas emergentes de salud y agrotech.
Valencia ha atraído en el primer semestre del año 30 millones de euros de inversión…
El diario estadounidense demanda a las dos compañías tecnológicas por haber usado sus contenidos para…