Contáctanos

AI

Cómo los datos sintéticos podrían salvar la IA

Avatar

Publicado

on

Únase a Transform 2021 para conocer los temas más importantes de la inteligencia artificial y los datos empresariales. Más información.


La IA se enfrenta a varios desafíos críticos. No solo necesita grandes cantidades de datos para ofrecer resultados precisos, sino que también debe poder garantizar que los datos no estén sesgados y debe cumplir con las regulaciones de privacidad de datos cada vez más restrictivas. Hemos visto varias soluciones propuestas en los últimos años para abordar estos desafíos, incluidas varias herramientas diseñadas para identificar y reducir el sesgo, herramientas que anonimizan los datos del usuario y programas para garantizar que los datos solo se recopilen con el consentimiento del usuario. Pero cada una de estas soluciones enfrenta desafíos propios.

Ahora estamos viendo surgir una nueva industria que promete ser una gracia salvadora: datos sintéticos. Los datos sintéticos son artificiales datos generados por computadora que puede reemplazar los datos obtenidos del mundo real.

Un conjunto de datos sintéticos debe tener las mismas propiedades matemáticas y estadísticas como conjunto de datos del mundo real, está reemplazando pero no representa explícitamente a individuos reales. Piense en esto como un espejo digital de datos del mundo real que refleja estadísticamente ese mundo. Esto permite entrenar sistemas de IA en un ámbito completamente virtual. Y se puede personalizar fácilmente para una variedad de casos de uso que van desde la atención médica hasta el comercio minorista, las finanzas, el transporte y la agricultura.

Hay un movimiento significativo en este frente. Más que vendedores de 50 ya han desarrollado soluciones de datos sintéticos, según una investigación realizada en junio pasado por StartUs Insights. En un momento describiré algunos de los protagonistas principales. Primero, sin embargo, echemos un vistazo más de cerca a los problemas que prometen resolver.

El problema con los datos reales

En los últimos años, ha aumentado preocupación acerca de lo inherente los prejuicios en conjuntos de datos puede conducir involuntariamente a algoritmos de IA que perpetúan la discriminación. De hecho, Gartner predice que hasta 2022, el 85% de los proyectos de inteligencia artificial generarán resultados erróneos debido al sesgo en los datos, los algoritmos o los equipos responsables de administrarlos.

La proliferación de algoritmos de inteligencia artificial también ha generado preocupaciones crecientes sobre la privacidad de los datos. A su vez, esto ha llevado a leyes de protección y privacidad de datos de los consumidores más estrictas en la UE con GDPR, así como en jurisdicciones de EE. más reciente Virginia.

Estas leyes dan a los consumidores más control sobre sus datos personales. Por ejemplo, la ley de Virginia otorga a los consumidores el derecho acceder, corregir, eliminar y obtener una copia de los datos personales, así como optar por no participar en la venta de datos personales y denegar el acceso algorítmico a los datos personales con fines de publicidad dirigida o elaboración de perfiles del consumidor.

By restringiendo el acceso a esta información, se obtiene una cierta cantidad de protección individual, pero a costa de la efectividad del algoritmo. Cuantos más datos pueda utilizar un algoritmo de IA, más precisos y efectivos serán los resultados. Sin acceso a una gran cantidad de datos, las ventajas de la IA, como ayudar con los diagnósticos médicos y la investigación de medicamentos, también podrían ser limitadas.

Una alternativa que se utiliza a menudo para compensar las preocupaciones por la privacidad es el anonimato. Los datos personales, por ejemplo, se pueden anonimizar enmascarando o eliminando características de identificación, como eliminar nombres y números de tarjetas de crédito de las transacciones de comercio electrónico o eliminar el contenido de identificación de los registros de atención médica. Pero existe una creciente evidencia de que incluso si los datos se han anonimizado de una fuente, pueden correlacionarse con conjuntos de datos de consumidores expuestos a violaciones de seguridad. De hecho, al combinar datos de múltiples fuentes, es posible formar una sorprendente imagen clara de nuestras identidades incluso si ha habido un cierto grado de anonimización. En algunos casos, esto incluso se puede hacer correlacionar datos de fuentes públicas, sin un infame truco de seguridad.

Solución de datos sintéticos

Los datos sintéticos prometen ofrecer las ventajas de la IA sin las desventajas. No solo saca nuestros datos personales reales de la ecuación, sino que un objetivo general para los datos sintéticos es tener un mejor rendimiento que los datos del mundo real al corregir el sesgo que a menudo está arraigado en el mundo real.

Aunque es ideal para aplicaciones que utilizan datos personales, la información sintética también tiene otros casos de uso. Un ejemplo es el modelado complejo de visión por computadora donde muchos factores interactúan en tiempo real. Se pueden crear conjuntos de datos de video sintéticos que aprovechan motores de juegos avanzados con imágenes hiperrealistas para retratar todas las posibles eventualidades en un escenario de conducción autónoma, mientras que intentar tomar fotos o videos del mundo real para capturar todos estos eventos sería poco práctico, quizás imposible y probablemente peligroso. Estos conjuntos de datos sintéticos pueden acelerar y mejorar drásticamente el entrenamiento de los sistemas de conducción autónomos.

(Imagen superior: las imágenes sintéticas se utilizan para entrenar algoritmos de vehículos autónomos. Fuente: proveedor de datos sintéticos Dominio paralelo.)

Quizás irónicamente, una de las herramientas principales para crear datos sintéticos es la misma que se usa para crear videos deepfake. Ambos hacen uso de redes generativas adversarias (GAN), un par de redes neuronales. Una red genera los datos sintéticos y la segunda intenta detectar si son reales. Esto se opera en un bucle, con la red del generador mejorando la calidad de los datos hasta que el discriminador no puede diferenciar entre real y sintético.

El ecosistema emergente

Forrester Research identificó recientemente varios tecnologías críticas, incluidos los datos sintéticos, que comprenderán lo que ellos consideran "IA 2.0", avances que amplían radicalmente las posibilidades de la IA. Al anonimizar más los datos y corregir los sesgos inherentes, así como al crear datos que de otro modo serían difíciles de obtener, los datos sintéticos podrían convertirse en la salvación para muchas aplicaciones de big data.

Los datos sintéticos también tienen otros grandes beneficios: puede crear conjuntos de datos de forma rápida y frecuente con los datos etiquetados para el aprendizaje supervisado. Y no es necesario limpiarlo ni mantenerlo como lo hacen los datos reales. Entonces, al menos teóricamente, viene con un gran ahorro de tiempo y costos.

Varias empresas bien establecidas se encuentran entre las que generan datos sintéticos. IBM describe esto como fabricación de datos, creando datos de prueba sintéticos para eliminar el riesgo de fuga de información confidencial y abordar los problemas regulatorios y del RGPD. AWS ha desarrollado herramientas internas de datos sintéticos para generar conjuntos de datos para entrenar a Alexa en nuevos idiomas. Y Microsoft ha desarrollado una herramienta en colaboración con Harvard con una capacidad de datos sintéticos que permite una mayor colaboración entre las partes de la investigación. A pesar de estos ejemplos, todavía es temprano para los datos sintéticos y el mercado en desarrollo está siendo liderado por las nuevas empresas.

Para terminar, echemos un vistazo a algunos de los primeros líderes de esta industria emergente. La lista se construye en base a mi propia investigación y organizaciones de investigación de la industria, incluidas G2 y StartUs Insights.

  1. AiFi - Utiliza datos generados sintéticamente para simular las tiendas minoristas y el comportamiento de los compradores.
  2. AI.Reverie - Genera datos sintéticos para entrenar algoritmos de visión por computadora para el reconocimiento de actividades, detección de objetos y segmentación. El trabajo ha incluido escenas de amplio alcance como ciudades inteligentes, identificación de aviones raros y agricultura, junto con la venta minorista de tiendas inteligentes.
  3. Anyverse - Simula escenarios para crear conjuntos de datos sintéticos utilizando datos de sensores sin procesar, funciones de procesamiento de imágenes y configuraciones LiDAR personalizadas para la industria automotriz.
  4. Cvedia - Crea imágenes sintéticas que simplifican la obtención de grandes volúmenes de datos etiquetados, reales y visuales. La plataforma de simulación emplea múltiples sensores para sintetizar entornos fotorrealistas que dan como resultado la creación de conjuntos de datos empíricos.
  5. DataGen - Casos de uso de entornos interiores, como tiendas inteligentes, robótica en el hogar y realidad aumentada.
  6. Avión de buceo - Crea conjuntos de datos sintéticos 'gemelos' para la industria de la salud con las mismas propiedades estadísticas de los datos originales.
  7. Gretel - Con el objetivo de ser el equivalente de GitHub para los datos, la empresa produce conjuntos de datos sintéticos para desarrolladores que conservan la misma información que la fuente de datos original.
  8. Brumoso - genera conjuntos de datos para impulsar la detección de fraudes y blanqueo de capitales para combatir los delitos financieros.
  9. Mayormente IA - Se centra en los sectores de seguros y finanzas y fue una de las primeras empresas en crear datos estructurados sintéticos.
  10. Una vista - Desarrolla conjuntos de datos sintéticos virtuales para el análisis de imágenes de observación de la tierra mediante algoritmos de aprendizaje automático.

Gary Grossman es el vicepresidente senior de práctica tecnológica de Edelman y Líder Global del Centro de Excelencia de Edelman AI.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan conocimientos sobre tecnología transformadora y realicen transacciones. Nuestro sitio brinda información esencial sobre tecnologías y estrategias de datos para guiarlo mientras dirige sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre los temas de su interés
  • nuestros boletines
  • contenido exclusivo de líderes de opinión y acceso con descuento a nuestros preciados eventos, como Transformar NO: Aprende más
  • funciones de red y más

¡Hazte miembro!

Coinsmart. Mejor Bitcoin-Börse en Europa
Fuente: https://venturebeat.com/2021/03/20/how-synthetic-data-could-save-ai/

Inteligencia artificial

Aprendizaje profundo vs aprendizaje automático: cómo un campo emergente influye en la programación informática tradicional

Avatar

Publicado

on

Cuando dos conceptos diferentes están muy entrelazados, puede resultar difícil separarlos como temas académicos distintos. Eso podría explicar por qué es tan difícil separar aprendizaje profundo desde máquina de aprendizaje como un todo. Teniendo en cuenta el impulso actual tanto de la automatización como de la gratificación instantánea, se ha centrado mucho en el tema.

Todo, desde trabajos de fabricación automatizados hasta medicina digital personalizada potencialmente podría crecer para depender de aprendizaje profundo tecnología. Definir los aspectos exactos de esta disciplina técnica que revolucionará estas industrias es, sin embargo, ciertamente mucho más difícil. Quizás sea mejor considerar el aprendizaje profundo en el contexto de un mayor movimiento en la informática.

Definición del aprendizaje profundo como un subconjunto del aprendizaje automático

Aprendizaje automático y el aprendizaje profundo son esencialmente dos caras de la misma moneda. Las técnicas de aprendizaje profundo son una disciplina específica que pertenece a un campo mucho más amplio que incluye una gran variedad de agentes entrenados con inteligencia artificial que pueden predecir la respuesta correcta en una gama igualmente amplia de situaciones. Sin embargo, lo que hace que el aprendizaje profundo sea independiente de todas estas otras técnicas es el hecho de que se centra casi exclusivamente en enseñar a los agentes a lograr un objetivo específico al aprender la mejor acción posible en una serie de entornos virtuales.

Los algoritmos tradicionales de aprendizaje automático suelen enseñar a los nodos artificiales cómo responder a los estímulos mediante la memorización. Esto es algo similar a las técnicas de enseñanza humana que consisten en una simple repetición y, por lo tanto, podría pensarse en el equivalente computarizado de un estudiante que recorre tablas de multiplicar hasta que pueda recitarlas. Si bien esto es efectivo de alguna manera, los agentes con inteligencia artificial educados de esa manera pueden no ser capaces de responder a ningún estímulo fuera del ámbito de sus especificaciones de diseño originales.

Es por eso que los especialistas en aprendizaje profundo han desarrollado algoritmos alternativos que se consideran algo superiores a este método, aunque es cierto que son mucho más intensivos en hardware de muchas maneras. Las subrountinas utilizadas por los agentes de aprendizaje profundo pueden basarse en redes generativas adversarias, estructuras de nodos neuronales convolucionales o una forma práctica de máquina de Boltzmann restringida. Estos contrastan fuertemente con los árboles binarios y las listas vinculadas que utiliza el firmware de aprendizaje automático convencional, así como la mayoría de los sistemas de archivos modernos.

Los mapas autoorganizados también han estado ampliamente en el aprendizaje profundo, aunque sus aplicaciones en otros campos de investigación de IA generalmente han sido mucho menos prometedoras. Cuando se trata de definir el aprendizaje profundo vs aprendizaje automático Sin embargo, es muy probable que los técnicos busquen más aplicaciones prácticas que discusiones académicas teóricas en los próximos meses. Baste decir que el aprendizaje automático abarca todo, desde la IA más simple hasta los algoritmos predictivos más sofisticados, mientras que el aprendizaje profundo constituye un subconjunto más selectivo de estas técnicas.

Aplicaciones prácticas de la tecnología de aprendizaje profundo

Dependiendo de cómo se haya creado un programa en particular, las técnicas de aprendizaje profundo podrían implementarse a lo largo de redes neuronales supervisadas o semi-supervisadas. Teóricamente, también sería posible hacerlo a través de un diseño de nodo completamente sin supervisión, y es esta técnica la que rápidamente se ha convertido en la más prometedora. Las redes no supervisadas pueden ser útiles para el análisis de imágenes médicas, ya que esta aplicación a menudo presenta piezas únicas de información gráfica a un programa de computadora que deben probarse con entradas conocidas.

Árbol binario tradicional o sistemas de aprendizaje basados ​​en blockchain han luchado por identificar los mismos patrones en escenarios dramáticamente diferentes, porque la información permanece oculta en una estructura que de otra manera habría sido diseñada para presentar datos de manera efectiva. Es esencialmente una forma natural de esteganografía y ha confundido a los algoritmos informáticos en la industria de la salud. Sin embargo, este nuevo tipo de nodo de aprendizaje no supervisado podría educarse virtualmente sobre cómo hacer coincidir estos patrones incluso en una estructura de datos que no está organizada según las líneas normales que una computadora esperaría que estuviera.

Otros han propuesto implementar agentes de marketing semi-supervisados ​​artificialmente inteligentes eso podría eliminar gran parte de la preocupación sobre la ética con respecto al software existente para cerrar acuerdos. En lugar de tratar de llegar a una base de clientes lo más grande posible, estas herramientas calcularían las probabilidades de que una persona determinada necesite un producto en un momento determinado. Para hacerlo, necesitaría ciertos tipos de información proporcionada por la organización en la que trabaja, pero eventualmente podría predecir todas las acciones futuras por sí misma.

Si bien algunas empresas actualmente confían en herramientas que utilizan la tecnología tradicional de aprendizaje automático para lograr los mismos objetivos, estas a menudo se combinan con política de privacidad y preocupaciones éticas. La llegada de los algoritmos de aprendizaje estructurado profundo ha permitido a los ingenieros de software crear nuevos sistemas que no sufren estos inconvenientes.

Desarrollo de un entorno de aprendizaje automatizado privado

Los programas de aprendizaje automático convencionales a menudo se topan con graves política de privacidad preocupaciones debido al hecho de que necesitan una gran cantidad de información para sacar conclusiones útiles. Software de reconocimiento de imágenes de aprendizaje profundo funciona procesando un subconjunto más pequeño de entradas, asegurando así que no necesita tanta información para hacer su trabajo. Esto es de particular importancia para aquellos que están preocupados por la posibilidad de fugas de datos del consumidor.

Teniendo en cuenta las nuevas posturas regulatorias sobre muchos de estos temas, también se ha convertido rápidamente en algo importante desde el punto de vista del cumplimiento. A medida que los laboratorios de toxicología comienzan a utilizar paquetes de aprendizaje estructurado profundo centrados en la bioactividad, es probable que los reguladores expresen preocupaciones adicionales con respecto a la cantidad de información necesaria para realizar una tarea determinada con este tipo de datos confidenciales. Los informáticos han tenido que reducir lo que algunos han llamado una verdadera manguera contra incendios de bytes que cuentan más una historia de la que la mayoría se sentiría cómoda.

En cierto modo, estos desarrollos se remontan a una época anterior en la que se creía que cada proceso en un sistema solo debería tener la cantidad de privilegios necesarios para completar su trabajo. A medida que los ingenieros de aprendizaje automático adopten este paradigma, es muy probable que los desarrollos futuros sean considerablemente más seguros simplemente porque no requieren la gran cantidad de minería de datos necesaria para impulsar las operaciones existentes en la actualidad.

Crédito de la imagen: toptal.io

Coinsmart. Mejor Bitcoin-Börse en Europa
Fuente: https://datafloq.com/read/deep-learning-vs-machine-learning-how-emerging-field-influences-traditional-computer-programming/13652

Continuar leyendo

Inteligencia artificial

Resumen de Extra Crunch: Tonal EC-1, la oferta pública inicial inestable de Deliveroo, ¿Substack realmente vale $ 650 millones?

Avatar

Publicado

on

Ayudas la columna de esta mañana, Alex Wilhelm miró hacia atrás en los últimos meses, "una temporada ocupada para las salidas de tecnología" que siguió a un caluroso cuarto trimestre de 4.

Estamos viendo señales de un mercado de OPI que puede estar enfriándose, pero aun así, "hay suficientes SPAC para atraer a todo el público reciente de la clase Y Combinator", señala.

Una vez que tenemos en cuenta las empresas de capital privado con los bolsillos llenos de dinero, es evidente que las empresas en etapa avanzada tienen tres opciones sólidas para subir de nivel.

Buscando más información sobre estas opciones de liquidez, Alex entrevistó:

  • Yancey Spruill, director ejecutivo de DigitalOcean, cuya empresa se hizo pública a través de una oferta pública inicial;
  • El director financiero de Latch, Garth Mitchell, que habló sobre la fusión de su startup con la inmobiliaria SPAC $ TSIA;
  • Brian Cruver, fundador y director ejecutivo de AlertMedia, que recientemente se vendió a una firma de capital privado.

Después de recapitular sus ofertas, cada ejecutivo explica cómo su empresa determinó qué señal roja intermitente de "SALIDA" seguir. Como observó Alex, "elegir qué opción es la mejor entre las posibilidades de un buffet es una tarea interesante".

¡Muchas gracias por leer Extra Crunch! Ten un excelente fin de semana.

Walter Thompson
Editor sénior, TechCrunch
@tuprotagonista


Los artículos completos de Extra Crunch solo están disponibles para miembros
Usa código de descuento ECFriday para ahorrar un 20% de descuento en una suscripción de uno o dos años


El Tonal EC-1

Créditos de imagen: Nigel Sussman

El martes, publicamos una serie de cuatro partes sobre Tonal, una startup de acondicionamiento físico en el hogar que ha recaudado $ 200 millones desde su lanzamiento en 2018. El hardware patentado de la compañía combina pesas digitales, entrenamiento e inteligencia artificial en un sistema montado en la pared que se vende por $ 2,995.

En cualquier medida, está listo para el éxito: las ventas aumentaron 800% entre diciembre de 2019 y 2020, y para fines de este año, la compañía contará con 60 puntos de venta. El miércoles, Tonal reportó una Serie E de $ 250 millones que valoró a la compañía en $ 1.6 mil millones.

Nuestro análisis profundo examina los orígenes de Tonal, el cronograma de desarrollo de productos, su estrategia de comercialización y otros aspectos que se combinaron para despertar el interés de los inversores y la satisfacción del cliente.

A este formato lo llamamos "CE-1, ”Ya que estas historias son tan completas y esclarecedoras como los formularios S-1 que las empresas emergentes deben presentar ante la SEC antes de salir a bolsa.

Así es como se descompone el Tonal EC-1:

Tenemos más EC-1 en proceso sobre otras startups en etapa tardía que están haciendo grandes cosas bien y son noticia en el proceso.

Qué hacer con el duro debut de la OPI de Deliveroo

¿Por qué Deliveroo tuvo problemas cuando comenzó a cotizar? ¿Sufre una disonancia cultural entre su modelo de alto crecimiento y los inversores europeos más conservadores?

Echemos un vistazo a los números y averigüémoslo.

Kaltura pone el debut en espera. ¿Se está cerrando la ventana de oferta pública inicial de tecnología?

The Exchange duda que mucha gente esperara que el clima de la OPI se volviera tan frío sin previo aviso. Pero podríamos estar en una pausa del segundo trimestre en el clima anteriormente abrasador para los debuts tecnológicos.

¿Substack realmente vale $ 650 millones?

Una Serie B de $ 65 millones es notable, incluso para los estándares de 2021. Pero el hecho de que a16z esté invirtiendo más capital en el espacio de los medios alternativos no es una sorpresa.

Substack es un lugar donde las publicaciones han desangrado algunos talentos conocidos, cambiando el centro de gravedad en los medios. Echemos un vistazo al crecimiento histórico de Substack.

El mercado de RPA aumenta a medida que los inversores y los proveedores aprovechan el cambio tecnológico impulsado por la pandemia

Organización y análisis de procesos de negocio. Visualización y representación de procesos de negocio, concepto de sistema de flujo de trabajo automatizado. Ilustración creativa del concepto de vector

Créditos de imagen: Generación visual / Getty Images

La automatización de procesos robóticos pasó a primer plano durante la pandemia cuando las empresas tomaron medidas para transformarse digitalmente. Cuando los empleados no podían estar juntos en la misma oficina, se volvió crucial improvisar flujos de trabajo más automatizados que requirieran menos personas en el circuito.

RPA ha permitido a los ejecutivos proporcionar un nivel de automatización que esencialmente les da tiempo para actualizar los sistemas a enfoques más modernos, al tiempo que reduce la gran cantidad de tareas manuales mundanas que forman parte del flujo de trabajo de cada industria.

Los roll-ups de comercio electrónico son la próxima ola de disrupción en bienes de consumo empaquetados

Vista elevada de muchos rollos de papel higiénico sobre fondo azul.

Créditos de imagen: Fotografía Javier Zayas (Se abre en una nueva ventana) / Imágenes falsas

Este año se trata de los roll-ups, la agregación de empresas más pequeñas en empresas más grandes, creando un camino potencialmente atractivo para el valor de las acciones. Llama la atención el interés por crear valor a través de las marcas de comercio electrónico.

Hace apenas un año, las marcas nativas digitalmente habían perdido el favor de los capitalistas de riesgo después de que muchas no lograran generar retornos a escala de riesgo. Entonces, ¿de qué se trata el bombo publicitario?

Hack toma: un CISO y un hacker detallan cómo responderían a la violación de Exchange

Concepto de vector plano isométrico 3D de violación de datos, robo de datos confidenciales, ataque cibernético.

Créditos de imagen: TarikVision (Se abre en una nueva ventana) / Imágenes falsas

El mundo cibernético ha entrado en una nueva era en la que los ataques son cada vez más frecuentes y ocurren a una escala mayor que nunca. Los hacks masivos que afectan a miles de empresas y agencias estadounidenses de alto nivel han dominado las noticias recientemente. Las principales de ellas son la violación de SolarWinds / FireEye de diciembre y la más reciente violación del servidor de Microsoft Exchange.

Todo el mundo quiere saber: si ha sido afectado por la infracción de Exchange, ¿qué debe hacer?

5 conceptos básicos del aprendizaje automático que los líderes no técnicos deben comprender

Mezcla de cables multicolores que se desenredan en líneas rectas sobre un fondo blanco. Ciudad del Cabo, Sudáfrica. Febrero de 2019.

Créditos de imagen: David Malan (Se abre en una nueva ventana) / Imágenes falsas

El aprendizaje automático se ha convertido en la base del negocio y la aceleración del crecimiento debido al increíble ritmo de cambio y desarrollo en este espacio.

Pero para los líderes de equipo e ingenieros sin experiencia en ML, esto también puede resultar abrumador e intimidante.

A continuación, presentamos las mejores prácticas y los componentes que debe conocer, divididos en cinco lecciones prácticas y de fácil aplicación.

El aprovisionamiento integrado hará que cada empresa tenga su propio mercado

Mujeres empresarias mediante teléfono móvil analizando datos y gráfico de crecimiento económico. Tecnología de marketing digital y conexión a la red.

Créditos de imagen: Busakorn Pongparnit / Getty Images

La contratación integrada es la evolución natural de la tecnología financiera integrada.

En esta próxima ola, las empresas comprarán lo que necesitan a través de aplicaciones B2B verticales, en lugar de a través de representantes de ventas, distribuidores o el sitio web de un comerciante individual.

Saber cuándo su startup debe apostar por el desarrollo empresarial

Una línea roja con punta de flecha saliendo de un lienzo de gráfico de crecimiento empresarial o financiero.

Créditos de imagen: twomeows / Getty Images

Existe una falacia persistente en torno a que cualquier problema de crecimiento o escalado de una startup se puede resolver con el desarrollo empresarial.

Francamente, eso no es cierto.

Estimada Sophie: ¿Qué debo saber sobre acuerdos prenupciales y obtener una tarjeta de residencia por matrimonio?

Figura solitaria en la entrada del seto del laberinto que tiene una bandera estadounidense en el centro

Créditos de imagen: Bryce Durbin / TechCrunch

Querida Sophie:

¡Soy fundador de una startup con una visa de inversionista E-2 y me acabo de comprometer! Mi futuro cónyuge me patrocinará para obtener una tarjeta verde.

¿Existe algún requisito de salario mínimo para que ella me patrocine? ¿Hay algo que deba tener en cuenta antes de comenzar el proceso de la tarjeta verde?

- Desposado en Belmont

Las empresas emergentes deben frenar la burocracia para garantizar una gobernanza de datos ágil

Imagen de una computadora, teléfono y reloj en un escritorio atado en burocracia.

Créditos de imagen: Imágenes RichVintage / Getty

Muchas organizaciones perciben la gestión de datos como algo similar al gobierno de datos, donde las responsabilidades se centran en establecer controles y procedimientos de auditoría, y las cosas se ven desde una perspectiva defensiva.

Es cierto que esa actitud defensiva está justificada, sobre todo teniendo en cuenta los posibles daños económicos y de reputación causados ​​por la mala gestión y la filtración de datos.

No obstante, hay un elemento de miopía aquí, y ser excesivamente cauteloso puede evitar que las organizaciones se den cuenta de los beneficios de la colaboración basada en datos, particularmente cuando se trata de software y desarrollo de productos.

Incorporar a los CISO a la C-suite para integrar la ciberseguridad en la cultura de la empresa

Empresaria de raza mixta con tablet PC en la sala de servidores

Créditos de imagen: Jetta Productions Inc (Se abre en una nueva ventana) / Imágenes falsas

La estrategia cibernética y la estrategia empresarial están inextricablemente vinculadas. En consecuencia, los directores de seguridad de la información de C-Suite serán tan comunes e influyentes como los directores financieros para maximizar el valor para los accionistas.

¿Cómo está gastando la tecnología edtech su capital extra?

Árbol del dinero: una mano adulta alcanza los billetes de un dólar que crecen en un árbol sin hojas

Créditos de imagen: Imágenes Tetra (Se abre en una nueva ventana) / Imágenes falsas

Los unicornios de Edtech tienen montones de dinero en efectivo para gastar tras el impulso de capital al sector en 2020. Como resultado, la actividad de fusiones y adquisiciones de Edtech ha seguido aumentando.

La idea de una startup bien capitalizada comprando competidores para complementar su negocio principal no es nada nuevo, pero las salidas en este sector son notables porque el dinero utilizado para comprar startups puede verse como un efecto del impacto de la pandemia en la educación remota.

Pero la semana pasada, el entorno de consolidación hizo una declaración clara: las nuevas empresas probadas por la pandemia están captando talento, y rápido.

Tecnología en México: una confluencia de América Latina, EE. UU. Y Asia

Vista aérea de multitud conectada por líneas.

Créditos de imagen: Orbon Alija (Se abre en una nueva ventana)/ Imágenes falsas

La transferencia de conocimientos no es la única tendencia que fluye en el nexo entre EE. UU., Asia y América Latina. La competencia también está en marcha.

Debido a condiciones de mercado similares, los gigantes tecnológicos asiáticos se están expandiendo directamente a México y otros países de América Latina.

Cómo mejoramos la retención neta en más de 30 puntos en 2 trimestres

Chispas que salen del billete de un dólar estadounidense conectado a los cables de puente

Créditos de imagen: Steven Puetzer (Se abre en una nueva ventana) / Imágenes falsas

Ciertamente no hay escasez de métricas de rendimiento de SaaS en las que se centran los líderes, pero NRR (retención de ingresos netos) es sin duda la métrica más subestimada que existe.

NRR es simplemente el ingreso total menos cualquier pérdida de ingresos más cualquier expansión de ingresos por actualizaciones, ventas cruzadas o ventas adicionales. Cuanto mayor sea el NRR, más rápido podrán escalar las empresas.

5 errores que cometen los creadores al crear nuevos juegos en Roblox

BRASIL - 2021/03/24: En esta ilustración fotográfica, se ve el logotipo de Roblox en un teléfono inteligente. (Ilustración fotográfica de Rafael Henrique / SOPA Images / LightRocket a través de Getty Images)

Créditos de imagen: Imágenes de SOPA (Se abre en una nueva ventana) / Imágenes falsas

Incluso los diseñadores de juegos más experimentados y talentosos del negocio F2P móvil generalmente no comprenden qué características son importantes para los robloxianos.

Para aquellos que recién comienzan su viaje en el desarrollo de juegos de Roblox, estos son los errores más comunes que cometen los profesionales de los juegos en Roblox.

El CEO Manish Chandra, el inversionista Navin Chaddha explican por qué canta la baraja de la Serie A de Poshmark

El CEO Manish Chandra, el inversionista Navin Chaddha explican por qué la baraja de la Serie A de Poshmark canta la imagen

"Lidera con amor y el dinero llega". Es uno de los valores fundamentales de Poshmark. En el último episodio de Extra Crunch Live, Chandra y Chaddha se sentaron con nosotros y nos llevaron a través de su presentación original de la Serie A.

¿Estimulará la pandemia un renacimiento inteligente para las ciudades?

Nuevo versus viejo: un antiguo edificio de ladrillo reflejado en las ventanas de la nueva fachada moderna

Créditos de imagen: hopsalka (Se abre en una nueva ventana) / Imágenes falsas

Las ciudades son centros bulliciosos donde la gente vive, trabaja y juega. Cuando se produjo la pandemia, algunas personas huyeron de los principales mercados metropolitanos hacia ciudades más pequeñas, lo que generó dudas sobre la validez futura de las ciudades.

Pero aquellos que predijeron que COVID-19 destruiría las principales comunidades urbanas podrían querer dejar de acortar la capacidad de recuperación de estos municipios y comenzar a pensar en cómo se ve el futuro pospandémico.

La locura de NFT será una bendición para los abogados

Representación 3D de la hucha rosa de pie en el bloque de sonido con martillo acostado al lado sobre fondo azul claro con espacio de copia. El dinero importa. Demanda por dinero. Ofertas de subasta.

Créditos de imagen: Gearstd (Se abre en una nueva ventana) / Imágenes falsas

Existe mucha incertidumbre en torno a los problemas de derechos de autor, el fraude y el contenido para adultos, y las implicaciones legales son el quid de la tendencia NFT.

El hecho de que un tribunal proteja la propiedad del titular del recibo sobre un archivo determinado depende de una variedad de factores. Todas estas preocupaciones significan que los artistas pueden necesitar un abogado.

Ver el debut SPAC propuesto por Cazoo a través del parabrisas de Carvana

Es una pregunta razonable: ¿Por qué alguien pagaría tanto por Cazoo hoy si Carvana es más rentable y todo eso? Bueno, crecimiento. De todos modos, ese es el argumento.

Coinsmart. Mejor Bitcoin-Börse en Europa
Source: https://techcrunch.com/2021/04/02/extra-crunch-roundup-tonal-ec-1-deliveroos-rocky-ipo-is-substack-really-worth-650m/

Continuar leyendo

AI

¿Qué les hizo COVID a todos nuestros modelos?

Avatar

Publicado

on

¿Qué les hizo COVID a todos nuestros modelos?

Una entrevista con Dean Abbott y John Elder sobre la gestión del cambio, la complejidad, la interpretabilidad y el riesgo de que la IA se apodere de la humanidad.


By Heather Fyson, KNIME

¿Qué les hizo COVID a todos nuestros modelos?

Una vez que el  Cumbre de otoño KNIME, los dinosaurios volvieron a casa… bueno, apagaron sus laptops. Dean Abbott y  John elder, expertos en ciencia de datos desde hace mucho tiempo, fueron invitados a la Cumbre de Otoño por Miguel para unirme a él en una discusión sobre El futuro de la ciencia de datos: una charla privada con dinosaurios de la industria. El resultado fue una conversación chispeante sobre los desafíos de la ciencia de datos y las nuevas tendencias. Desde que apagué las luces del estudio, Rosaria ha destilado y ampliado algunos de los aspectos más destacados sobre la gestión del cambio, la complejidad, la interpretabilidad y más en el mundo de la ciencia de datos. Veamos a dónde nos trajo.

¿Cuál es su experiencia con la gestión del cambio en IA, cuando la realidad cambia y los modelos deben actualizarse? ¿Qué les hizo COVID a todos nuestros modelos?

 
[Decano] Los algoritmos de aprendizaje automático (ML) asumen coherencia entre el pasado y el futuro. Cuando las cosas cambian, los modelos fallan. COVID ha cambiado nuestros hábitos y, por tanto, nuestros datos. Los modelos anteriores a COVID luchan por hacer frente a la nueva situación.

[John] Un ejemplo simple sería la capa Tráfico en Google Maps. Después de que los bloqueos afectaron país tras país en 2020, las estimaciones de tráfico de Google Maps fueron muy inexactas durante un tiempo. Se había construido sobre datos de entrenamiento bastante estables, pero ahora ese sistema estaba completamente fuera de control.

¿Cómo se da cuenta de que el mundo ha cambiado y los modelos ya no funcionan?

 
[Decano] Aquí hay un pequeño truco que uso: particiono mis datos por tiempo y etiqueto los registros como "antes" y "después". Luego construyo un modelo de clasificación para discriminar el "después" del "antes" de las mismas entradas que utiliza el modelo. Si la discriminación es posible, entonces el "después" es diferente del "antes", el mundo ha cambiado, los datos han cambiado y los modelos deben volver a capacitarse.

¿Qué tan complicado es volver a capacitar modelos en proyectos, especialmente después de años de personalización?

 
[John] ¡Entrenar modelos suele ser el paso más fácil de todos! La gran mayoría de proyectos exitosos morir en la fase de implementación. La mayor hora se gasta en la fase de limpieza y preparación de datos. Y lo mas problemas se pierden o se realizan en la fase de comprensión del negocio / definición del proyecto. Entonces, si comprende cuál es la falla y puede obtener nuevos datos y tiene el marco de implementación en su lugar, crear un nuevo modelo es, en comparación, muy sencillo.

Según su experiencia de décadas, ¿qué tan complejo es armar una aplicación de ciencia de datos realmente funcional?

 
[John] Puede variar, por supuesto, según la complejidad. La mayoría de nuestros proyectos obtienen prototipos funcionales al menos en unos pocos meses. Pero para todos, no puedo enfatizar lo suficiente la importancia de la retroalimentación: tienes que hablar con la gente mucho más a menudo de lo que quieres. ¡Y escucha! Aprendemos cosas nuevas sobre el problema empresarial, los datos o las limitaciones, cada vez. No todas las personas cuantitativas somos hábiles para hablar con humanos, por lo que a menudo se necesita un equipo. Pero todo el equipo de partes interesadas tiene que aprender a hablar el mismo idioma.

[Decano] Es importante hablar con nuestra contraparte comercial. La gente teme al cambio y no quiere cambiar el estado actual. Un problema clave es realmente psicológico. Los analistas a menudo se ven como una molestia. Por lo tanto, tenemos que generar confianza entre la contraparte empresarial y los expertos en análisis. El inicio de un proyecto siempre debe incluir el siguiente paso: Sincronizar los expertos de dominio / gerentes de proyecto, los analistas y el equipo de TI e infraestructura (DevOps) para que todos tengan claros los objetivos del proyecto y cómo se ejecutará. ¡Los analistas ocupan el puesto 11 en la lista de las 10 personas principales a las que tienen que ver todos los días! Evitemos encarnar la arrogancia de los científicos de datos: “La empresa no puede entendernos a nosotros / nuestras técnicas, pero sabemos qué funciona mejor”. Sin embargo, lo que no entendemos es que los expertos en dominios son en realidad expertos en el dominio en el que estamos trabajando. ¡La traducción de los supuestos y enfoques de la ciencia de datos a un lenguaje que los expertos en el dominio entiendan es clave!

La última tendencia ahora es el aprendizaje profundo, aparentemente puede resolverlo todo. Recientemente, recibí una pregunta de un estudiante que me preguntaba "¿por qué necesitamos aprender otros algoritmos de aprendizaje automático si el aprendizaje profundo es el estado del arte para resolver problemas de ciencia de datos"?

 
[Decano] El aprendizaje profundo absorbió mucho oxígeno de la habitación. ¡Se parece tanto a principios de la década de 1990 cuando las redes neuronales ascendieron con un optimismo similar! El Deep Learning es un conjunto de técnicas poderosas sin duda, pero son difíciles de implementar y optimizar. XGBoost, Conjuntos de árboles, también son poderosos, pero actualmente son más convencionales. La gran mayoría de los problemas que necesitamos resolver mediante análisis avanzados realmente no requieren soluciones complejas, así que comience de manera simple; el aprendizaje profundo es excesivo en estas situaciones. Es mejor utilizar el principio de la navaja de Occam: si dos modelos funcionan igual, adopte el más simple.

Sobre la complejidad. La otra tendencia, opuesta al aprendizaje profundo, es la interpretabilidad del ML. Aquí simplificas mucho (¿excesivamente?) El modelo para poder explicarlo. ¿Es la interpretabilidad tan importante?

 
[John] A menudo me encuentro luchando contra la interpretabilidad. Es agradable, claro, pero a menudo tiene un costo demasiado alto de la propiedad más importante del modelo: precisión confiable. Pero muchas partes interesadas creen que la interpretabilidad es esencial, por lo que se convierte en una barrera para la aceptación. Por tanto, es fundamental descubrir qué tipo de interpretabilidad se necesita. ¿Quizás es solo saber cuáles son las variables más importantes? Eso es factible con muchos modelos no lineales. Tal vez, al igual que al explicar a los solicitantes de crédito por qué fueron rechazados, uno solo necesita interpretar los resultados de un caso a la vez. Podemos construir una aproximación lineal para un punto dado. O podemos generar datos a partir de nuestro modelo de caja negra y construir un modelo "interpretable" de cualquier complejidad para ajustar esos datos.

Por último, la investigación ha demostrado que si los usuarios tienen la oportunidad de jugar con un modelo, es decir, pincharlo con valores de prueba de entradas y ver sus salidas, y tal vez visualizarlas, obtienen los mismos sentimientos cálidos de interpretabilidad. En general, la confianza, en las personas y la tecnología detrás del modelo, es necesaria para la aceptación, y esto se ve reforzado por la comunicación regular y al incluir a los posibles usuarios del modelo en las fases de construcción y decisiones del proceso de modelado.

[Decano] Por cierto, KNIME Analytics Platform tiene una gran función para cuantificar la importancia de las variables de entrada en un bosque aleatorio. El Aprendiz de bosque aleatorio El nodo genera las estadísticas de las variables candidatas y de división. Recuerde eso, cuando use el nodo de aprendizaje de bosque aleatorio.

Hay un aumento en las solicitudes de explicaciones sobre lo que hace un modelo. Por ejemplo, para algunas clases de seguridad, la Unión Europea exige la verificación de que el modelo no hace lo que se supone que no debe hacer. Si tenemos que explicarlo todo, quizás el aprendizaje automático no sea el camino a seguir. ¿No más aprendizaje automático?

 
[Decano]  Tal vez la explicabilidad completa sea demasiado difícil de obtener, pero podemos lograr un progreso realizando una búsqueda de cuadrícula en las entradas del modelo para crear algo como una tarjeta de puntuación que describa lo que hace el modelo. Esto es algo así como las pruebas de regresión en el control de calidad de hardware y software. Si no es posible una prueba formal de lo que están haciendo los modelos, ¡probemos y probemos y probemos! Input Shuffling y Target Shuffling pueden ayudar a lograr una representación aproximada del comportamiento del modelo.

[John] Hablando de entender lo que hace un modelo, me gustaría plantear el problema de la reproducibilidad en la ciencia. Se cree que una gran proporción de artículos de revistas en todos los campos (entre el 65% y el 90%) son irrepetibles. Esta es una verdadera crisis de la ciencia. Los artículos médicos intentan decirle cómo reproducir sus resultados. Los papeles ML todavía no parecen preocuparse por la reproducibilidad. Un estudio reciente mostró que solo el 15% de los artículos de IA comparten su código.

Hablemos de sesgo de aprendizaje automático. ¿Es posible construir modelos que no discriminen?

 
[John] (Para ser un nerd por un segundo, esa palabra es desafortunadamente sobrecargado. Su objetivo es "discriminar" en la palabra del mundo ML: hacer una distinción entre dos clases). Pero para su pregunta real, depende de los datos (y de si el analista es lo suficientemente inteligente como para ajustar las debilidades de los datos ): Los modelos extraerán de los datos la información reflejada en ellos. La computadora no sabe nada sobre el mundo, excepto lo que hay en los datos que tiene delante. Entonces, el analista tiene que curar los datos, asumir la responsabilidad de aquellos casos que reflejen la realidad. Si ciertos tipos de personas, por ejemplo, están subrepresentadas, el modelo les prestará menos atención y no será tan preciso en el futuro. Pregunto: "¿Por qué tuvieron que pasar los datos para llegar aquí?" (para ingresar a este conjunto de datos) para pensar en cómo otros casos podrían haber desaparecido a lo largo del proceso (es decir, el sesgo del sobreviviente). Un científico de datos capacitado puede buscar estos problemas y pensar en formas de ajustarlos o corregirlos.

[Decano] El sesgo no está en los algoritmos. El sesgo está en los datos. Si los datos están sesgados, estamos trabajando con una visión sesgada del mundo. Las matemáticas son solo matemáticas, no están sesgadas.

¡¿La IA se hará cargo de la humanidad ?!

 
[John] Creo que la IA es simplemente una buena ingeniería. ¿La IA superará la inteligencia humana? En mi experiencia, cualquier persona menor de 40 cree que sí, esto es inevitable, y la mayoría de más de 40 (como yo, obviamente): ¡no! Los modelos de IA son rápidos, leales y obedientes. Como un buen perro pastor alemán, un modelo de IA irá a buscar esa pelota, pero no sabe nada sobre el mundo más que los datos que se le han mostrado. No tiene sentido común. Es un gran asistente para tareas específicas, pero en realidad es bastante tonto.

[Decano] En esa nota, me gustaría informar dos citas hechas por Marvin Minsky en 1961 y 1970, desde los albores de la IA, que creo que describen bien el futuro de la IA.

"Durante nuestra vida, algunas máquinas pueden superarnos en inteligencia general" (1961)

"En tres a ocho años tendremos una máquina con la inteligencia de un ser humano" (1970)

Estas ideas han existido durante mucho tiempo. Aquí hay una razón por la que la IA no resolverá todos los problemas: ¡Juzgamos su comportamiento basándonos en un número, solo un número! (Error del modelo). Por ejemplo, las predicciones de los precios de las acciones durante los próximos cinco años, pronosticadas mediante la construcción de modelos utilizando el error cuadrático medio como la métrica del error, no pueden mostrar la imagen completa de lo que realmente están haciendo los datos y obstaculizan gravemente el modelo. y su capacidad para descubrir los patrones de forma flexible. Todos sabemos que RMSE es una medida demasiado burda. Los algoritmos de Deep Learning seguirán mejorando, pero también debemos mejorar para juzgar qué tan bueno es realmente un modelo. ¡Entonces no! No creo que la IA se apodere de la humanidad.

Hemos llegado al final de esta entrevista. Nos gustaría agradecer a Dean y John por su tiempo y sus píldoras de conocimiento. ¡Esperemos que nos volvamos a encontrar pronto!

Acerca de Dean Abbott y John Elder

¿Qué hizo COVID con todos nuestros modelos? Dean Abbott es cofundador y científico jefe de datos en SmarterHQ. Es un experto e innovador reconocido internacionalmente en ciencia de datos y análisis predictivo, con tres décadas de experiencia en la resolución de problemas en análisis de clientes omnicanal, detección de fraude, modelado de riesgos, minería de textos y análisis de encuestas. Incluido con frecuencia en listas de científicos de datos y científicos de datos pioneros, es un orador principal popular e instructor de talleres en conferencias en todo el mundo, y también forma parte de las juntas asesoras de los programas UC / Irvine Predictive Analytics y UCSD Data Science Certificate. Es autor de Applied Predictive Analytics (Wiley, 2014) y coautor de The IBM SPSS Modeler Cookbook (Packt Publishing, 2013).


¿Qué hizo COVID con todos nuestros modelos? John elder fundó Elder Research, la consultora de ciencia de datos más grande y experimentada de Estados Unidos en 1995. Con oficinas en Charlottesville VA, Baltimore MD, Raleigh, NC, Washington DC y Londres, han resuelto cientos de desafíos para clientes comerciales y gubernamentales mediante la extracción de conocimientos prácticos de todo tipo de datos. El Dr. Elder es coautor de tres libros, sobre minería de datos prácticos, conjuntos y minería de texto, dos de los cuales ganaron premios al "libro del año". John ha creado herramientas de minería de datos, fue un descubridor de métodos conjuntos, preside conferencias internacionales y es un popular taller y orador principal.


 
Bio: Heather Fyson es el editor de blogs de KNIME. Inicialmente en el equipo de eventos, su experiencia es en realidad en traducción y revisión, por lo que al mudarse al blog en 2019, ha regresado a su verdadera pasión por trabajar con textos. PD: Ella siempre está interesada en escuchar sus ideas para nuevos artículos.

Original. Publicado de nuevo con permiso.

Relacionado:

Coinsmart. Mejor Bitcoin-Börse en Europa
Fuente: https://www.kdnuggets.com/2021/04/covid-do-all-our-models.html

Continuar leyendo

AI

Las tendencias de la inteligencia artificial que reconfiguran la atención médica

Avatar

Publicado

on

Haga clic para obtener más información sobre el autor Ben Lorica.

Las aplicaciones de la IA en el cuidado de la salud presentan una serie de desafíos y consideraciones que difieren sustancialmente de otras industrias. A pesar de esto, también ha sido uno de los líderes en poner en funcionamiento la IA, aprovechando la tecnología de punta para mejorar la atención. Los números hablan por sí mismos: se espera que el tamaño del mercado global de la IA en el cuidado de la salud crezca de $ 4.9 mil millones en 2020 a $ 45.2 2026 millones de dólares por. Algunos de los principales factores que impulsan este crecimiento son el gran volumen de datos de atención médica y la creciente complejidad de los conjuntos de datos, la necesidad de reducir los crecientes costos de atención médica y las necesidades cambiantes de los pacientes.

Aprendizaje profundo, por ejemplo, ha logrado avances considerables en el entorno clínico durante los últimos años. La visión por computadora, en particular, ha demostrado su valor en imágenes médicas para ayudar en la detección y el diagnóstico. Procesamiento del lenguaje natural (NLP) ha proporcionado un valor significativo al abordar preocupaciones tanto contractuales como regulatorias con la minería de textos y el intercambio de datos. La creciente adopción de la tecnología de inteligencia artificial por parte de las empresas farmacéuticas y de biotecnología para acelerar iniciativas como el desarrollo de vacunas y medicamentos, como se vio a raíz del COVID-19, solo ejemplifica el enorme potencial de la inteligencia artificial.

Ya estamos viendo avances asombrosos en la inteligencia artificial para el cuidado de la salud, pero aún son los primeros días, y para realmente desbloquear su valor, hay mucho trabajo por hacer para comprender los desafíos, las herramientas y los usuarios previstos que dan forma a la industria. Nueva investigación de Laboratorios John Snow y Gradient Flow, Informe de la encuesta 2021 AI in Healthcare, arroja luz sobre esto: dónde estamos, hacia dónde vamos y cómo llegar allí. La encuesta global explora las consideraciones importantes para las organizaciones de atención médica en las distintas etapas de adopción de la IA, geografías y destreza técnica para proporcionar una visión amplia del estado de la IA en la atención médica actual.               

Uno de los hallazgos más importantes es qué tecnologías son las más importantes cuando se trata de la implementación de la IA. Cuando se les preguntó qué tecnologías planean tener implementadas para fines de 2021, casi la mitad de los encuestados citaron integración de datos. Aproximadamente un tercio citó el procesamiento del lenguaje natural (NLP) y la inteligencia empresarial (BI) entre las tecnologías que están usando actualmente o planean usar para fin de año. La mitad de los que se consideran líderes técnicos están utilizando, o pronto utilizarán, tecnologías para la integración de datos, la PNL, la inteligencia empresarial y el almacenamiento de datos. Esto tiene sentido, considerando que estas herramientas tienen el poder de ayudar a dar sentido a grandes cantidades de datos, al mismo tiempo que se tienen en cuenta las prácticas de IA reguladoras y responsables.

Cuando se les preguntó sobre los usuarios previstos para las herramientas y tecnologías de IA, más de la mitad de los encuestados identificaron a los médicos entre sus usuarios objetivo. Esto indica que la IA está siendo utilizada por personas encargadas de brindar servicios de atención médica, no solo tecnólogos y científicos de datos, como en años anteriores. Ese número aumenta aún más cuando se evalúan organizaciones maduras, o aquellas que han tenido modelos de IA en producción durante más de dos años. Curiosamente, casi el 60% de los encuestados de organizaciones maduras también indicaron que los pacientes también son usuarios de sus tecnologías de IA. Con la llegada de los chatbots y la telesalud, será interesante ver cómo prolifera la IA tanto para los pacientes como para los proveedores en los próximos años.

Al considerar el software para crear soluciones de inteligencia artificial, el software de código abierto (53%) tenía una ligera ventaja sobre los proveedores de nube pública (42%). De cara a uno o dos años, los encuestados indicaron estar abiertos a utilizar también software comercial y SaaS comercial. El software de código abierto brinda a los usuarios un nivel de autonomía sobre sus datos que los proveedores de la nube no pueden, por lo que no es una gran sorpresa que una industria altamente regulada como la atención médica desconfíe del intercambio de datos. De manera similar, la mayoría de las empresas con experiencia en la implementación de modelos de IA en producción eligen validar modelos utilizando sus propios datos y herramientas de monitoreo, en lugar de la evaluación de terceros o proveedores de software. Si bien las empresas en etapas iniciales son más receptivas a la exploración de socios externos, las organizaciones más maduras tienden a adoptar un enfoque más conservador.                      

En general, las actitudes permanecieron igual cuando se les preguntó sobre los criterios clave utilizados para evaluar las soluciones de IA, las bibliotecas de software o las soluciones SaaS, y las empresas consultoras con las que trabajar. Aunque las respuestas variaron ligeramente para cada categoría, los líderes técnicos no consideraron compartir datos con proveedores de software o consultoría. empresas, la capacidad de entrenar sus propios modelos y la precisión de vanguardia como principales prioridades. Los modelos específicos de atención médica y la experiencia en ingeniería, integración y cumplimiento de datos de atención médica encabezaron la lista cuando se les preguntó sobre soluciones y socios potenciales. La privacidad, la precisión y la experiencia en el cuidado de la salud son las fuerzas que impulsan la adopción de la IA. Está claro que la IA está preparada para un crecimiento aún mayor, a medida que los datos continúan creciendo y la tecnología y las medidas de seguridad mejoran. El cuidado de la salud, que a veces puede verse como un rezagado para una adopción rápida, está adoptando la IA y ya está viendo su impacto significativo. Si bien su enfoque, las principales herramientas y tecnologías y las aplicaciones de IA pueden diferir de otras industrias, será emocionante ver lo que está reservado para los resultados de la encuesta del próximo año.

Coinsmart. Mejor Bitcoin-Börse en Europa
Fuente: https://www.dataversity.net/the-ai-trends-reshaping-health-care/

Continuar leyendo
DeportesHace 2 días

Descargar Free Fire World Series APK para Android

DeportesHace 2 días

Dota 2: Top Mid Heroes del parche 7.29

DeportesHace días 1

El escándalo de chantaje de C9 White Keiti explica el despido repentino

DeportesHace 2 días

Ludwig cierra el maratón de transmisión de un mes en primer lugar - Top 10 semanal de Twitch, del 5 al 11 de abril

DeportesHace días 1

Resumen del día 2021 de la Overwatch League 1

DeportesHace horas 23

Fortnite: Lanzadores de cohetes épicos, abrazos y arcos explosivos de la competencia

DeportesHace 2 días

La posición 5 Faceless Void está causando sensación en los pubs de Dota 2 de América del Norte después del parche 7.29

DeportesHace 2 días

Fortnite: Notas de parche v16.20 - Mods de vehículos todoterreno, Lobbies creativos para 50 jugadores, Corrección de errores y más

DeportesHace 2 días

Fortnite Leak se burla de la piel de Aloy de Horizon Zero Dawn

DeportesHace 2 días

El parche 2.2a de Wild Rift trae toneladas de cambios de campeones y la incorporación de Rammus a finales de este mes.

ServiciosHace 2 días

Bitcoin Preis steigt auf über 60.000 USD, neues ATH wahrscheinlich

DeportesHace 2 días

¡No se pierda el sorteo de conferencias de Rogue Energy x Esports!

DeportesHace 2 días

Capcom revela que el hack de ransomware proviene de una antigua VPN

DeportesHace 2 días

Epic Games Store perdió $ 181 millones y $ 273 millones en 2019 y 2020

DeportesHace 2 días

Resultados de Fortnite: DreamHack Cash Cup Extra Europe y NA East

DeportesHace 2 días

El parche 11.8 de League of Legends presenta a Gwen, actualizaciones de campeones y nuevos aspectos

DeportesHace días 1

Gamers Club y Riot Games organizan el circuito Women's Valorant en América Latina

ServiciosHace 2 días

Forscher sehen Zentralisierung von Binance kritisch

DeportesHace 2 días

La temporada 1 de WUFL llega a su fin con una gran victoria para Arslan Ash

ServiciosHace 2 días

ETC Group notiert ersten Litecoin ETP y Deutscher Börse

Tendencias