domingo, marzo 23

Acelere las búsquedas de arquitectura neuronal con métricas basadas en teoría y sin entrenamiento

[ad_1]


En la última década, el mundo ha visto un tremendo aumento en el uso de la inteligencia artificial.
Tecnología de inteligencia (IA). La principal potencia detrás del éxito de los sistemas de IA la proporciona
Modelos de aprendizaje profundo y algoritmos de aprendizaje automático (ML). Recientemente ha surgido un nuevo paradigma de IA
surgió: Automated Machine Learning (AutoML) con su subárea Neural Architecture Search
(NA).

Los modelos de ML de última generación consisten en flujos de trabajo complejos con numerosas opciones de diseño y
Variables que deben ajustarse para un rendimiento óptimo. Todas las variables se pueden optimizar manualmente
complejo e incluso irresoluble. La Búsqueda de Arquitectura Neural (NAS) nos permite encontrar una poderosa
Arquitectura del modelo de aprendizaje profundo automáticamente. NAS usa modelos ML para diseñar o entrenar otros ML
Modelos que hacen prueba y error millones o miles de millones de veces más rápido que los humanos. La figura
a continuación ilustra este cambio de paradigma y el lugar que ocupa en él una nueva herramienta llamada TE-NAS.

NAS automatiza el proceso de encontrar un buen modelo, pero este proceso puede ser bastante costoso.
NAS necesita examinar el rendimiento de muchos modelos (buenos y malos) antes de descubrir el patrón de un
buena arquitectura y puede llevar mucho tiempo determinar si un solo modelo funciona bien
o no. Entonces, entrenar NAS requiere el uso de supercomputadoras, pero también avanzadas
supercomputadoras puede llevar días o incluso semanas.

Sigue leyendo…

[ad_2]

Source link

Deja una respuesta