La era de la vigilancia de IA está aquí

447
0
Compartir

Durante años hemos sido grabado en público por las cámaras de seguridad, la policía bodycams, livestreams, la gente de otros comentarios en los medios sociales, y así sucesivamente. Pero incluso si hay una cámara en la cara, siempre ha habido un ligero garantía de que los extraños no sería capaz de hacer cualquier cosa que nos afecta con el material de archivo. El tiempo y el esfuerzo que llevaría a alguien para que arrastre a través de los meses de seguridad del material de archivo para encontrar a una persona específica, o buscar en internet sobre la posibilidad de que encontrará usted es simplemente poco realista. Pero no para los robots.

Tiempo posible en los thrillers de Hollywood, las herramientas para determinar que alguien es y lo que estamos haciendo a través de vídeo y las imágenes están tomando forma. Empresas como Facebook y Baidu hemos estado trabajando en inteligencia artificial-powered tecnología durante años. Pero la reducción de la tasa de error y la ampliación de la disponibilidad de estos sistemas augura un futuro cercano cuando cada video es analizado para identificar a las personas, objetos y acciones en el interior.

La inteligencia Artificial de los investigadores luchado durante años para construir algoritmos que podía mirar una imagen y decir lo que representa. La complejidad de las imágenes, cada una con millones de píxeles que forman patrones únicos, era demasiado complicado para mano el código de los algoritmos de forma fiable el trabajo.

Luego, en 2012, los investigadores demostraron que una técnica llamada profunda de aprendizaje, un sistema en el que tuvo la idea general de nuestros cerebros’ interconectado de neuronas y traducido en funciones matemáticas, trabajó mucho mejor cuando se trabaja con grandes cantidades de imágenes. Si la profundidad de la red neuronal, como el sistema fue llamado, fue dado suficientes ejemplos podría suss los patrones comunes entre las imágenes, como la forma y las texturas común entre los gatos.

Desde entonces, los sistemas han crecido en complejidad y escala: los Investigadores comenzaron a hacer de las redes más grandes de «neuronas», mientras que los fabricantes de hardware como de Nvidia comenzó la construcción de la especialidad de procesadores que hacen que las redes exponencialmente más rápido. El resultado ha sido una explosión en lo que los sistemas pueden lograr. Dado un conjunto de datos de imágenes o de vídeo, estos sistemas pueden ser entrenados para aprender lo que la cara de una persona que parece, y de identificar de forma fiable y de nuevo y de nuevo.

El público más grande ejemplo de esto es MegaFace, un proyecto de la Universidad de Washington. El conjunto de datos contiene cerca de 5 millones de imágenes de 672,000 personas, provenientes de Flickr creative commons. En julio, el MegaFace equipo presentó los últimos resultados de los algoritmos capacitados en el conjunto de datos. Cuando se probó en la coincidencia de dos imágenes de una misma persona en un conjunto de datos independiente de 1 millón de imágenes de caras, de más alto rango de equipos tocado el 75% de precisión cuando se les da una oportunidad para adivinar, y más de un 90% de exactitud cuando se les permite dar 10 opciones.

«Necesitamos de la prueba de reconocimiento facial, a escala planetaria, para permitir a las aplicaciones prácticas—pruebas en una escala más grande le permite descubrir las fallas y los aciertos de los algoritmos de reconocimiento,» Ira Kemelmacher-Shlizerman, un profesor de la universidad de WISCONSIN, que supervisa MegaFace, dijo a la universidad de WISCONSIN, tienda de prensa.

El vídeo, que utiliza técnicas similares a las imágenes fijas, pero requiere mayor potencia de procesamiento, también permite AI para entender lo que está sucediendo a lo largo del tiempo. Baidu, el Chino gigante de las búsquedas, anunció a finales de agosto de 2017 que se había ganado el ActivityNet reto, correctamente etiquetado de las acciones de los seres humanos en 300,000 videos con un 87,6% de precisión. Estas son acciones como cortar leña, limpieza de ventanas, y caminar a un perro.

Facebook también ha demostrado interés en esta tecnología, para entender que en livestreams en el sitio y lo que están haciendo. En una entrevista el año pasado, el director de la aplicación de la máquina de aprendizaje Joaquín Quiñonero Candela dijo que, idealmente, Facebook podría entender lo que está sucediendo en cada video en vivo, con el fin de ser capaz de curar un video personalizado de canal para los usuarios.

Reconocimiento Facial en las imágenes fijas y de vídeo ya está filtrando en el mundo real. Baidu está comenzando un programa de reconocimiento facial se utiliza en lugar de entradas para eventos. El lugar sabe, tal vez a partir de una foto que subas o su perfil de medios sociales, ve tu cara cuando te presentas y sabe si está permitido. París probado una característica similar en su aeropuerto Charles de Gaulle para un turno de tres meses de este año, después de que Japón se programa piloto en el año 2016, aunque no se han publicado los resultados de los programas.

NOSOTROS, los gobiernos ya están comenzando a utilizar la tecnología de una capacidad limitada. La semana pasada, el departamento de vehículos de motor anunció que había realizado más de 4.000 detenciones tecnología de reconocimiento facial. En lugar de escanear la policía de material de archivo, el software se utiliza para comparar la nueva licencia de conducir de la aplicación de fotos para imágenes que ya están en la base de datos, haciendo que sea más difícil para los estafadores para robar la identidad de alguien. Si el estado o el gobierno federal se expanda en la implementación de reconocimiento facial en público, ya tienen una base de datos de más deEl 50% de los adultos Estadounidenses desde los repositorios como DmvY de nuevo, la más grande del conjunto de datos, la mejor de la AI.

Y que podría no estar muy lejos. Axón, una empresa, una vez conocido como Taser y el distribuidor más grande del cuerpo de policía de las cámaras en los estados unidos, recientemente se ha intensificado ambiciones para infundir inteligencia artificial en sus productos, la adquisición de dos AI empresas a principios de este año. Axón CEO Rick Smith dijo Cuarzo previamente que el ideal de casos de uso para la IA sería el objetivo de la generación de los informes de incidentes, dando a la policía más tiempo fuera desde detrás de un escritorio. Reconocimiento Facial, señaló, que no está activo ahora, pero podría ser en el futuro. Motorola, otra de las principales bodycam proveedor, canchas de su software en su capacidad de aprender rápidamente las caras, destacando un escenario en el que un oficial está buscando un niño perdido.

Las cámaras de seguridad también están recibiendo un impulso de AI. Intel anunció en abril que había construido hardware para cámaras de seguridad capaz de «multitud densidad de monitoreo, la visión estereoscópica, reconocimiento facial, el conteo de personas,» y «análisis de la conducta.» Otra cámara, llamado el DNNCam, es un aprendizaje profundo de la cámara impermeable, auto-suficiente, y afirma ser prácticamente indestructible, lo que significa que puede ser configurado para trabajar en lugares remotos, lejos de las conexiones a internet o detrás de una caja registradora para «regular el reconocimiento de los clientes», según el sitio web.

Así que, ¿qué privacidad de mente, respetuosos de la ley a los ciudadanos a hacer cuando la vigilancia se convierte en la norma? No mucho. Principios de investigación ha identificado las formas de engañar a los software de reconocimiento facial, ya sea especialmente hecha gafas para engañar a los algoritmos o pintura de la cara que se produce fuera de la AI. Pero estos a menudo requieren el conocimiento de cómo el reconocimiento facial funciona el algoritmo. Esto es sólo un mano a mano. Tal vez use un sombrero grande?

No hay comentarios

Dejar una respuesta