Machine Learning Tarragona #190123
23/01/2019
Machine Learning Tarragona es el resumen principal de noticias de Machine Learning (Aprendizaje Automático) y Deep Learning (Aprendizaje Profundo) para el área de Tarragona, España.
Los principales desarrollos en este campo, ya sean nuevas tecnologías, compañías o productos, procesados y simplificados para que lo puedas tener de forma fácil, simple y gratis!
Los ejemplos y tutoriales de Machine Learning permiten que los nuevos contenidos, muchas veces de gran complejidad, sean accesibles para una audiencia más amplia. A su vez, las técnicas y algoritmos de Machine Learning, ofrecen los últimos avances en investigación de forma más interesante y simple de comprender. Se incluye, también, ejemplos y técnicas de Python, ya que es uno de los lenguajes más utilizados en este campo.
Este contenido se complementa con información específica para el área de Tarragona, España.
Cómo escalar el entrenamiento de algoritmos de Inteligencia Artificial
Se ha hallado que la escala de ruido de gradiente, una simple métrica estadística, predice la paralelización de la formación de redes neuronales en una amplia gama de tareas. Dado que las tareas complejas tienden a tener gradientes más ruidosos, es probable que los lotes cada vez más grandes se vuelvan útiles en el futuro, eliminando un límite potencial para un mayor crecimiento de los sistemas de Inteligencia Artificial y Machine Learning. En términos más generales, estos resultados muestran que el entrenamiento de redes neuronales no debe considerarse un arte misterioso, sino que puede ser riguroso y sistemático.
En los últimos años, los investigadores de Inteligencia Artificial han tenido un éxito creciente en la aceleración del entrenamiento de redes neuronales a través del paralelismo de datos, que divide grandes lotes de datos en muchas máquinas. Los investigadores han utilizado con éxito tamaños de lotes de decenas de miles para la clasificación de imágenes y el modelado del lenguaje, e incluso millones para los agentes de RL que juegan el juego Dota 2. Estos lotes grandes permiten que cantidades cada vez mayores de cómputo se viertan eficientemente en la capacitación de un solo modelo y son un importante facilitador del rápido crecimiento en el cálculo de la capacitación en Inteligencia Artificial. Sin embargo, los tamaños de lotes que son demasiado grandes muestran rendimientos algorítmicos que disminuyen rápidamente, y no está claro por qué estos límites son más grandes para algunas tareas y más pequeños para otras.
Se ha encontrado que al medir la escala de ruido de gradiente, una estadística simple que cuantifica la relación de señal a ruido de los gradientes de la red, puede predecir aproximadamente el tamaño máximo útil del lote. Heurísticamente, la escala de ruido mide la variación en los datos según lo visto por el modelo (en una etapa dada en el entrenamiento). Cuando la escala de ruido es pequeña, mirar una gran cantidad de datos en paralelo rápidamente se vuelve redundante, mientras que cuando es grande, todavía se puede aprender mucho de enormes lotes de datos.
https://bit.ly/2W5kbip
Las limitaciones de Deep Learning
Lo más sorprendente de Deep Learning es lo simple que es. Hace diez años, nadie esperaba que se lograran resultados tan sorprendentes en los problemas de percepción por parte de los ordenadores mediante el uso de modelos paramétricos simples entrenados con gradiente de pendiente (gradient descent). Ahora, resulta que todo lo que necesita son modelos paramétricos suficientemente grandes entrenados con pendiente de gradiente en suficientes ejemplos. Como Feynman dijo una vez sobre el universo, "no es complicado, es mucho".
En Deep Learning, todo es un vector, es decir, todo es un punto en un espacio geométrico. Las entradas del modelo (podría ser texto, imágenes, etc.) y los objetivos se "vectorizan" primero, es decir, se convierten en un espacio de vector de entrada inicial y un espacio de vector de destino. Cada capa en un modelo de Deep Learning opera una transformación geométrica simple en los datos que la atraviesan. Juntas, la cadena de capas del modelo forma una transformación geométrica muy compleja, dividida en una serie de transformaciones simples. Esta transformación compleja intenta asignar el espacio de entrada al espacio objetivo, un punto a la vez. Esta transformación está parametrizada por los pesos de las capas, que se actualizan de forma iterativa según el rendimiento del modelo que se entrena. Una característica clave de esta transformación geométrica es que debe ser diferenciable, lo que es requerido para que se puedan aprender sus parámetros a través del gradiente de pendiente. Intuitivamente, esto significa que la transformación geométrica de las entradas a las salidas debe ser suave y continua, una restricción significativa.
Todo el proceso de aplicación de esta compleja transformación geométrica a los datos de entrada se puede visualizar en 3D imaginando a una persona que intenta desmenuzar una bola de papel: la bola de papel arrugada es la variedad de los datos de entrada con los que comienza el modelo. Cada movimiento operado por la persona sobre la bola de papel es similar a una transformación geométrica simple operada por una capa. La secuencia completa de gestos no arrugados es la transformación compleja de todo el modelo. Los modelos de Deep Learning son máquinas matemáticas para deshacer múltiples datos complejos de alta dimensión.
https://bit.ly/2u2egNi
La Inteligencia Artificial atraviesa la barrera del significado
Los algoritmos de Machine Learning aún no comprenden las cosas como lo hacen los humanos, con consecuencias a veces desastrosas.
Probablemente has escuchado que estamos en medio de una revolución de la Inteligencia Artificial. Se nos dice que la inteligencia de la máquina está progresando a una velocidad asombrosa, impulsada por algoritmos de "aprendizaje profundo" (Deep Learning) que utilizan enormes cantidades de datos para entrenar programas complicados conocidos como "redes neuronales".
Los algoritmos actuales de Inteligencia Artificial pueden reconocer rostros y transcribir oraciones habladas. Tenemos programas que pueden detectar un sutil fraude financiero, encontrar páginas web relevantes en respuesta a consultas ambiguas, encontrar la mejor ruta en un mapa a casi cualquier destino, vencer a los grandes maestros humanos en ajedres y Go, y traducir entre cientos de idiomas. Además, se nos ha prometido que la conducción autónoma de los coches, los diagnósticos automáticos de cáncer, los robots de limpieza e incluso los descubrimientos científicos automatizados están a punto de convertirse en una realidad.
El desafío de crear inteligencia similar a la humana en las máquinas sigue siendo muy subestimado. Los sistemas actuales de Inteligencia Artificial y Machine Learning carecen de la esencia de la inteligencia humana: entender las situaciones que experimentamos, ser capaces de comprender su significado. El matemático y filósofo Gian-Carlo Rota dijo: "Me pregunto si o cuando la Inteligencia Artificial llegará a romper la barrera del significado".
https://nyti.ms/2D5noHG
Tu opinión es muy importante! Deja tu comentario con sugerencias o ideas de cómo mejorar este servicio.
Puedes seguir noticias y eventos en facebook: https://www.facebook.com/machinelearningtarragona
#machinelearning #deeplearning #tarragona
0 comentarios