Un flujo de trabajo típico del proyecto de aprendizaje profundo (DL) comienza con la identificación del problema empresarial y simulando la declaración o pregunta del problema. A ello le siguen una serie de pasos, incluida la preparación (o preprocesamiento de datos), la formación de modelo, el ajuste de hiperparámetros y la evaluación del modelo. Es un proceso iterativo y el modelo óptimo se alcanza a menudo solo después de varias iteraciones y experimentos.
La identificación del modelo que mejor se ajusta a los datos requiere mucho tiempo, esfuerzo y experiencia en todo el proceso de DL. La herramienta Entrenar con AutoDL automatiza este flujo de trabajo completo e identifica las mejores redes neuronales con el mejor conjunto de hiperparámetros que se ajustan a los datos. En las secciones siguientes se describe con más detalle cada uno de los pasos del proceso DL.
Entrenar con el flujo de trabajo de AutoDL
La herramienta Entrenar con AutoDL automatiza lo siguiente:
- Aumento de datos: los proyectos de DL satisfactorios requieren grandes cantidades de datos de entrada de elevada calidad para abordar un problema específico. Sin embargo, en realidad es difícil obtener datos clasificados o etiquetados en grandes cantidades. Se aplican técnicas de aumento de datos con el fin de aumentar la cantidad de datos, así como la diversidad en los datos de modo que se parezcan a los datos del mundo real. El aumento de datos puede implicar transformaciones geométricas, voltear, recortar, traslación y inyección de ruido, etc., todas las cuales pueden requerir un nivel sustancial de tiempo y esfuerzo por parte del profesional del DL. Este paso suele llevar mucho tiempo y ser tedioso, y puede exigir conocimientos y experiencia detallados y específicos del dominio.
- Reducción automática del tamaño de lote: la salida de la herramienta Exportar datos de entrenamiento con aprendizaje profundo es una carpeta que contiene un dataset de entrenamiento de aprendizaje profundo. Estos datos exportados contienen una gran cantidad de imágenes, que se deben enviar en lotes en función de los recursos de cálculo disponibles. La herramienta automatiza el proceso de calcular el tamaño de lote óptimo para entrenar el modelo de aprendizaje profundo en función de los recursos disponibles.
- Entrenamiento de modelos y selección de modelos: en el paso de formación del modelo, el profesional de DL elige la red DL adecuada en función del problema y las características de los datos. Después, comienza el proceso iterativo de entrenamiento del modelo para que se ajuste a los datos, lo que a menudo incluye experimentar con varias redes neuronales DL diferentes. Cada uno de estos algoritmos puede tener muchos hiperparámetros diferentes, que son valores especificados manualmente por el profesional de DL, los cuales controlan cómo "aprende" el modelo. A continuación, estos hiperparámetros se adaptan (dicho de otro modo, se ajustan) con el objetivo de mejorar el rendimiento del algoritmo y conseguir mejores resultados. Se trata de un proceso iterativo que requiere el tiempo y la experiencia de un profesional de DL. Los distintos modelos de red neuronales incluyen modelos de detección de objetos como SingleShotDetector y RetinaNet, YoloV3, FasterRCNN y MMDetection. Los modelos de clasificación de píxeles como UnetClassifier, PSPNetClassifier, DeepLab y MMSegmentation funcionan mejor en uno u otros datos. Resulta difícil predecir qué modelos funcionarán bien en un dataset determinado, por lo que debe probar todos los modelos para comparar su rendimiento antes de decidir el modelo que mejor se ajusta a los datos.
- Ajuste de hiperparámetros: aunque la mayoría de los pasos anteriores eran iterativos, el paso que suele resultar más difícil al entrenar modelos de aprendizaje automático es el ajuste de hiperparámetros.
Los hiperparámetros se pueden considerar como indicadores que vienen con cada modelo. Los hiperparámetros que se utilizan en el entrenamiento del modelo incluyen la reducción de una tasa de aprendizaje y un fondo adecuado.
- Evaluación de modelos: el paso final del flujo de trabajo de DL es la evaluación del modelo, donde se valida que el algoritmo de DL entrenado y ajustado se generalizará bien para los datos en los que no se ajustó. A menudo, estos datos sin utilizar se denominan conjunto de pruebas o validación y se mantienen separados del resto de datos que se utilizan para entrenar el modelo. El objetivo de este paso final es garantizar que el algoritmo de DL produce una precisión predictiva aceptable en datos nuevos.
En el flujo de trabajo de DL existen distintos grados de aportación, toma de decisiones y elección humanas en cada paso.
- ¿Se recopilaron los datos adecuados para abordar el problema? ¿Hay suficientes datos?
- ¿Qué implica una clase de fondo en el contexto de los datos?
- Si se encuentran datos mal etiquetados, ¿qué debería reemplazarlos?
- ¿Para cuántas épocas se debe entrenar el modelo DL?
- ¿Qué red neuronal DL se debe utilizar?
- ¿Cuál es un nivel aceptable de rendimiento para el modelo?
- ¿Cuál es la mejor combinación de hiperparámetros para un modelo determinado?
Solo esta última decisión puede conllevar cientos o incluso miles de combinaciones de hiperparámetros que se pueden iterar. Si entrena y ajusta muchas redes de DL, todo el proceso comienza a ser inmanejable y no productivo. Además, varios de los pasos del flujo de trabajo de DL requieren conocimientos técnicos expertos de técnicas de ciencia de datos, estadísticas y algoritmos de aprendizaje automático. Por ello, diseñar y ejecutar proyectos de DL puede llevar mucho tiempo, ser laborioso y costoso y, a menudo, depender mucho de científicos de datos y profesionales de DL formados.
En la última década, el aprendizaje profundo ha experimentado un crecimiento considerable tanto en el rango de aplicaciones en las que se aplica como en la cantidad de nuevas investigaciones producidas sobre el mismo. Algunas de las fuerzas que más impulsan este crecimiento son la maduración de los propios métodos y algoritmos de DL, la generación y proliferación de enormes volúmenes de datos de los que aprenden los algoritmos, la abundancia de computación barata para ejecutar los algoritmos y el creciente conocimiento entre las empresas de que los algoritmos de DL pueden abordar complejos problemas y estructuras de datos.
Muchas organizaciones desean usar DL para aprovechar sus datos y derivar nuevas perspectivas ejecutables a partir de este, pero existe un desequilibrio entre el número de posibles aplicaciones de DL y la cantidad de profesionales expertos de DL formados para utilizarlas. Como resultado, existe una creciente demanda de "democratizar" el DL en todas las organizaciones creando herramientas que hagan que el DL sea comúnmente accesible en toda la organización y que expertos de dominio y personas no expertas en DL pueden utilizarlo de inmediato.
Recientemente, el Aprendizaje profundo automatizado (AutoDL) se ha convertido en una forma de abordar la enorme demanda de DL dentro de las organizaciones en todos los niveles de experiencia y conocimientos. AutoDL tiene por objetivo crear un único sistema para automatizar (es decir, eliminar las aportaciones humanas) en la mayor medida de lo posible del flujo de trabajo de DL, incluida la preparación de datos, la ingeniería de entidades, la selección de modelos, el ajuste de hiperparámetros y la evaluación del modelo. Al hacerlo, puede ser beneficioso para los usuarios que no sean expertos gracias a reducir su barrera de aportación al DL, pero también para los profesionales de DL formados eliminando algunos de los pasos más tediosos y lentos del flujo de trabajo de DL.
AutoDL para usuarios no expertos en DL (analista SIG/analista de negocio/analista de datos que son expertos de dominio): la ventaja clave de usar AutoDL es que elimina algunos de los pasos del flujo de trabajo de DL que requieren la comprensión y los conocimientos expertos más técnicos. Los analistas que son expertos de dominio pueden definir su problema empresarial y recopilar los datos adecuados y, a continuación, dejar que el equipo aprenda a hacer el resto. No necesitan comprender en profundidad las técnicas de ciencia de datos para la limpieza y el aumento de datos, no necesitan conocer la función de todas las redes neuronales de DL y no necesitan dedicar tiempo a explorar las diferentes redes y configuraciones de hiperparámetros. En su lugar, estos analistas pueden centrarse en la aplicación de sus conocimientos del dominio a la aplicación específica del dominio/problema empresarial en cuestión, en lugar de en el propio flujo de trabajo de DL. Además, pueden ser menos dependientes de científicos de datos formados y de ingenieros de DL de su organización, ya que pueden crear y utilizar modelos avanzados por su cuenta, a menudo sin necesidad de experiencia de codificación.
AutoDL para expertos en DL (científico de datos/ingeniero de DL): AutoDL también puede ser muy beneficioso para los expertos en DL; sin embargo, las razones pueden ser menos obvias. Para uno, los expertos en DL no tienen que dedicar mucho tiempo a ayudar a los expertos de dominio de su organización y, por tanto, pueden centrarse en su propio trabajo, trabajo con DL más avanzado. En lo que respecta a los proyectos de DL de los expertos en DL AutoDL puede servir de gran ahorro de tiempo y potenciar la productividad. Muchos de los pasos tediosos y lentos del flujo de trabajo de DL, por ejemplo, el aumento de datos, la selección de modelos y el ajuste de hiperparámetros, se pueden automatizar. El tiempo que se ahorra al automatizar muchos de estos pasos exploratorios y repetitivos se puede utilizar en tareas técnicas más avanzadas o tareas que requieren más aportación humana (p. ej., la colaboración con expertos de dominio, la comprensión del problema empresarial o la interpretación de los resultados de DL).
Además de sus aspectos que ahorran tiempo, AutoDL también puede ayudar a potenciar la productividad de los profesionales de DL, ya que elimina algunas de las opciones subjetivas y la experimentación implicadas en el flujo de trabajo de DL. Por ejemplo, un profesional de DL que aborde un nuevo proyecto puede tener la formación y los conocimientos expertos necesarios para guiarlo a la hora de crear nuevas entidades y decidir qué algoritmo de DL podría ser el mejor para un problema concreto y qué hiperparámetros serían los más óptimos. Sin embargo, pueden pasar por alto la construcción de determinadas entidades nuevas o no probar todas las combinaciones diferentes de hiperparámetros posibles al llevar a cabo el flujo de trabajo de DL. Además, el profesional de DL puede sesgar el proceso de selección de entidades o la elección de un algoritmo porque prefiera una red de DL concreta en función de su trabajo anterior o su éxito en otras aplicaciones de DL que haya visto. En realidad, ningún algoritmo de DL funciona mejor en todos los datasets, algunos algoritmos de DL son más sensibles que otros a la selección de hiperparámetros y muchos problemas empresariales tienen distintos grados de complejidad y requisitos para la interpretación de los algoritmos de DL utilizados para resolverlos. AutoDL puede ayudar a reducir parte de esta influencia humana aplicando muchos algoritmos de DL diferentes al mismo dataset y determinando después cuál de ellos funciona mejor.
Para el profesional de DL, AutoDL también puede servir como punto de partida inicial o punto de referencia en un proyecto de DL. Pueden utilizarlo para desarrollar automáticamente un modelo base para un dataset, lo que les puede proporcionar un conjunto de percepciones preliminares sobre un problema concreto. Desde aquí, pueden decidir agregar o eliminar entidades específicas del dataset de entrada o centrarse en una red DL específica y ajustar sus hiperparámetros. En este sentido, AutoDL se puede ver como un medio para restringir el conjunto de opciones iniciales para un profesional de DL entrenado, para que se centren en mejorar el rendimiento del sistema DL en general. Se trata de un flujo de trabajo muy utilizado en la práctica, en el que los expertos en DL desarrollarán un punto de referencia basado en datos con AutoDL y, a continuación, se basan en este punto de referencia incorporando su experiencia para perfeccionar los resultados.
Al final, democratizar el DL con AutoDL dentro de una organización permite a los expertos de dominio centrar su atención en el problema empresarial y obtener resultados ejecutables, permite a más analistas crear mejores modelos y puede reducir el número de expertos en DL que la organización necesita contratar. También puede ayudar a incrementar la productividad de profesionales y científicos de datos entrenados, lo que les permite centrar sus conocimientos en la multitud de tareas donde más se necesitan.
Interpretar los informes de salida
La herramienta Entrenar usando AutoDL genera paquetes de aprendizaje profundo entrenados (.dlpk) y también muestra una directriz como parte de la ventana de salida de la herramienta.
La tabla de clasificación muestra los modelos evaluados y su valor métrico. En este caso del problema de detección de objetos, el modelo con la puntuación de precisión media más alta se considera el mejor modelo, mientras que en el caso del problema de clasificación de píxeles, el modelo con mayor precisión se considera el mejor.