Logotipo de Zephyrnet

Aprendizaje profundo vs aprendizaje automático: cómo un campo emergente influye en la programación informática tradicional

Fecha:

Cuando dos conceptos diferentes están muy entrelazados, puede resultar difícil separarlos como temas académicos distintos. Eso podría explicar por qué es tan difícil separar deep learning en máquina de aprendizaje como un todo. Teniendo en cuenta el impulso actual tanto de la automatización como de la gratificación instantánea, se ha centrado mucho en el tema.

Todo, desde trabajos de fabricación automatizados hasta medicina digital personalizada potencialmente podría crecer para depender de deep learning tecnología. Definir los aspectos exactos de esta disciplina técnica que revolucionará estas industrias es, sin embargo, ciertamente mucho más difícil. Quizás sea mejor considerar el aprendizaje profundo en el contexto de un mayor movimiento en la informática.

Definición del aprendizaje profundo como un subconjunto del aprendizaje automático

Aprendizaje automático y el aprendizaje profundo son esencialmente dos caras de la misma moneda. Las técnicas de aprendizaje profundo son una disciplina específica que pertenece a un campo mucho más amplio que incluye una gran variedad de agentes entrenados con inteligencia artificial que pueden predecir la respuesta correcta en una gama igualmente amplia de situaciones. Sin embargo, lo que hace que el aprendizaje profundo sea independiente de todas estas otras técnicas es el hecho de que se centra casi exclusivamente en enseñar a los agentes a lograr un objetivo específico al aprender la mejor acción posible en una serie de entornos virtuales.

Los algoritmos tradicionales de aprendizaje automático suelen enseñar a los nodos artificiales cómo responder a los estímulos mediante la memorización. Esto es algo similar a las técnicas de enseñanza humana que consisten en una simple repetición y, por lo tanto, podría pensarse en el equivalente computarizado de un estudiante que recorre tablas de multiplicar hasta que pueda recitarlas. Si bien esto es efectivo de alguna manera, los agentes con inteligencia artificial educados de esa manera pueden no ser capaces de responder a ningún estímulo fuera del ámbito de sus especificaciones de diseño originales.

Es por eso que los especialistas en aprendizaje profundo han desarrollado algoritmos alternativos que se consideran algo superiores a este método, aunque es cierto que son mucho más intensivos en hardware de muchas maneras. Las subrountinas utilizadas por los agentes de aprendizaje profundo pueden basarse en redes generativas adversarias, estructuras de nodos neuronales convolucionales o una forma práctica de máquina de Boltzmann restringida. Estos contrastan fuertemente con los árboles binarios y las listas vinculadas que utiliza el firmware de aprendizaje automático convencional, así como la mayoría de los sistemas de archivos modernos.

Los mapas autoorganizados también han estado ampliamente en el aprendizaje profundo, aunque sus aplicaciones en otros campos de investigación de IA generalmente han sido mucho menos prometedoras. Cuando se trata de definir el aprendizaje profundo vs aprendizaje automático Sin embargo, es muy probable que los técnicos busquen más aplicaciones prácticas que discusiones académicas teóricas en los próximos meses. Baste decir que el aprendizaje automático abarca todo, desde la IA más simple hasta los algoritmos predictivos más sofisticados, mientras que el aprendizaje profundo constituye un subconjunto más selectivo de estas técnicas.

Aplicaciones prácticas de la tecnología de aprendizaje profundo

Dependiendo de cómo se haya creado un programa en particular, las técnicas de aprendizaje profundo podrían implementarse a lo largo de redes neuronales supervisadas o semi-supervisadas. Teóricamente, también sería posible hacerlo a través de un diseño de nodo completamente sin supervisión, y es esta técnica la que rápidamente se ha convertido en la más prometedora. Las redes no supervisadas pueden ser útiles para el análisis de imágenes médicas, ya que esta aplicación a menudo presenta piezas únicas de información gráfica a un programa de computadora que deben probarse con entradas conocidas.

Árbol binario tradicional o sistemas de aprendizaje basados ​​en blockchain han luchado por identificar los mismos patrones en escenarios dramáticamente diferentes, porque la información permanece oculta en una estructura que de otra manera habría sido diseñada para presentar datos de manera efectiva. Es esencialmente una forma natural de esteganografía y ha confundido a los algoritmos informáticos en la industria de la salud. Sin embargo, este nuevo tipo de nodo de aprendizaje no supervisado podría educarse virtualmente sobre cómo hacer coincidir estos patrones incluso en una estructura de datos que no está organizada según las líneas normales que una computadora esperaría que estuviera.

Otros han propuesto implementar agentes de marketing semi-supervisados ​​artificialmente inteligentes eso podría eliminar gran parte de la preocupación sobre la ética con respecto al software existente para cerrar acuerdos. En lugar de tratar de llegar a una base de clientes lo más grande posible, estas herramientas calcularían las probabilidades de que una persona determinada necesite un producto en un momento determinado. Para hacerlo, necesitaría ciertos tipos de información proporcionada por la organización en la que trabaja, pero eventualmente podría predecir todas las acciones futuras por sí misma.

Si bien algunas empresas actualmente confían en herramientas que utilizan la tecnología tradicional de aprendizaje automático para lograr los mismos objetivos, estas a menudo se combinan con política de privacidad y preocupaciones éticas. La llegada de los algoritmos de aprendizaje estructurado profundo ha permitido a los ingenieros de software crear nuevos sistemas que no sufren estos inconvenientes.

Desarrollo de un entorno de aprendizaje automatizado privado

Los programas de aprendizaje automático convencionales a menudo se topan con graves política de privacidad preocupaciones debido al hecho de que necesitan una gran cantidad de información para sacar conclusiones útiles. Software de reconocimiento de imágenes de aprendizaje profundo funciona procesando un subconjunto más pequeño de entradas, asegurando así que no necesita tanta información para hacer su trabajo. Esto es de particular importancia para aquellos que están preocupados por la posibilidad de fugas de datos del consumidor.

Teniendo en cuenta las nuevas posturas regulatorias sobre muchos de estos temas, también se ha convertido rápidamente en algo importante desde el punto de vista del cumplimiento. A medida que los laboratorios de toxicología comienzan a utilizar paquetes de aprendizaje estructurado profundo centrados en la bioactividad, es probable que los reguladores expresen preocupaciones adicionales con respecto a la cantidad de información necesaria para realizar una tarea determinada con este tipo de datos confidenciales. Los informáticos han tenido que reducir lo que algunos han llamado una verdadera manguera contra incendios de bytes que cuentan más una historia de la que la mayoría se sentiría cómoda.

En cierto modo, estos desarrollos se remontan a una época anterior en la que se creía que cada proceso en un sistema solo debería tener la cantidad de privilegios necesarios para completar su trabajo. A medida que los ingenieros de aprendizaje automático adopten este paradigma, es muy probable que los desarrollos futuros sean considerablemente más seguros simplemente porque no requieren la gran cantidad de minería de datos necesaria para impulsar las operaciones existentes en la actualidad.

Crédito de la imagen: toptal.io

Coinsmart. Mejor Bitcoin-Börse en Europa
Fuente: https://datafloq.com/read/deep-learning-vs-machine-learning-how-emerging-field-influences-traditional-computer-programming/13652

punto_img

Información más reciente

punto_img