Logo Zéphyrnet

Prévisions de l'industrie du Big Data pour 2021

Date :

Prévisions de l'industrie du Big Data pour 2021

By Daniel Gutierrez

2020 a été une année historique, avec de nombreux défis nationaux et mondiaux. Mais l'industrie du Big Data connaît une inertie significative à l'approche de 2021. Afin de donner à nos précieux lecteurs un aperçu des nouvelles tendances importantes qui mèneront à l'année prochaine, nous, ici à insideBIGDATA, avons entendu tous nos amis de l'écosystème des fournisseurs pour obtenir leurs idées, réflexions et des prédictions sur ce qui pourrait arriver. Nous avons été très encouragés d’entendre des perspectives aussi passionnantes. Même si seulement la moitié se réalise, le Big Data de l’année prochaine s’annonce comme une aventure passionnante. Apprécier!

Daniel D. Gutierrez – Rédacteur en chef et Data Scientist résident

Analytique

La « fracture analytique » va s’aggraver. À l’instar de la « fracture numérique » très médiatisée, nous assistons également à l’émergence d’une « fracture analytique ». De nombreuses entreprises ont été poussées à investir dans l'analyse en raison de la pandémie, tandis que d'autres ont été contraintes de supprimer tout ce qu'elles ne considéraient pas comme essentiel pour continuer à fonctionner. Pour ces organisations, un investissement approprié dans l'analyse était une nécessité. Billot. Cela signifie que le fossé analytique va encore se creuser en 2021, et cette tendance se poursuivra pendant de nombreuses années encore. Sans aucun doute, les gagnants et les perdants de chaque secteur continueront d’être définis par ceux qui exploitent l’analyse et ceux qui ne le font pas. – Alan Jacobson, directeur des données et des analyses, chez Alteryx

L’époque des solutions d’analyse et de reporting fragmentaires qui répondaient probablement à des cas d’utilisation métier de niche est probablement révolue. C’est insoutenable. Les entreprises ne peuvent pas avoir des implémentations d'analyses hautement départementales qui ont pour effet de résoudre des problèmes localisés sans que l'entreprise dans son ensemble n'en perçoive tous les avantages. La situation actuelle va évoluer vers une situation dans laquelle des analyses seront effectuées sur toutes les données auxquelles l'entreprise a accès, ces analyses pouvant être mises en œuvre de manière collaborative par divers groupes d'intérêt possédant des compétences différentes (par exemple, science des données, des chefs d'entreprise) et en mettant l'accent sur l'opérationnalisation des informations analytiques en temps quasi réel. En d’autres termes, finies les expérimentations scientifiques fragmentaires et simples. – Sri Raghavan, directeur du marketing produit pour la science des données et l'analyse avancée chez Teradata

L'analyse prescriptive sera un élément clé du succès de la transformation numérique : l'analyse avancée est devenir alors que les entreprises collectent et analysent de plus en plus de données au sein de leur organisation, avec 35% des fabricants américains ayant déployé des analyses avancées au cours des trois dernières années. Pour que l’IA ait un impact significatif sur l’ensemble de la chaîne de valeur, l’analyse prescriptive sera le catalyseur permettant d’optimiser les performances. L'analyse prescriptive deviendra un élément essentiel pour faire évoluer l'IA au sein des organisations, en exploitant les données sur les produits et les clients pour conseiller les modèles d'IA sur la manière d'améliorer les processus, d'ajuster la production et d'augmenter l'efficacité. L'analyse prescriptive permet une amélioration constante avec un modèle d'IA en surveillant et en ajustant en permanence en fonction de l'évolution des conditions. Les modèles prescriptifs peuvent alors permettre l’automatisation des décisions, où les modèles peuvent prendre la meilleure ligne de conduite en fonction des prescriptions. Aller au-delà de l’analyse prédictive vers l’analyse prescriptive permettra à terme de réussir la transformation numérique des fabricants en 2021. – George Young, directeur général mondial de Kalypso

L’analyse augmentée et le libre-service deviendront de plus en plus demandés compte tenu de la répartition de la main-d’œuvre et de la soif d’informations. En réponse, l’analyse traditionnelle sera de plus en plus perturbée par l’IA. L'augmentation de la main-d'œuvre distribuée va créer une demande accrue d'analyses augmentées où l'utilisateur individuel est guidé tout au long du processus de création de requêtes pour obtenir des réponses immédiates à ses questions sur les données. Nous assistons à une convergence de l’analyse et de l’IA dans deux domaines : au niveau de l’infrastructure et au niveau des analystes.

Les gens commencent à se rendre compte qu'ils disposent de différents pipelines de données qui fournissent des données à un moteur d'analyse et qu'ils construisent une pile différente pour le ML. Au lieu de deux piles complètement distinctes, nous constatons une convergence de celles-ci vers une infrastructure plus facile à maintenir tout en garantissant que les mêmes données sont utilisées pour alimenter les deux moteurs. Une deuxième convergence se produira concernant la « soif » d’informations et la nécessité de combler le manque de réponses aux questions à l’aide de données. L’analyse traditionnelle va commencer à être de plus en plus perturbée par l’IA. Les plates-formes (telles que Tableau, Power BI, etc.) commenceront à être remplacées par des robots et des assistants virtuels qui seront de nature conversationnelle. Nous considérons cela comme une incitation à accélérer le mouvement vers le libre-service. Nous prévoyons également que la PNL deviendra plus largement utilisée en 2021. – Scott Schlesinger, Global Data, Analytics & AI Practice Leader chez ness

Les frontières entre l’informatique et les autres départements, en particulier en matière de données et d’analyses, continueront de s’estomper. Les données et les analyses ont le potentiel de générer des résultats commerciaux extrêmement positifs et significatifs, et lorsque cela se produit, il existe souvent également une collaboration puissante entre différents domaines fonctionnels, chacun ayant un certain niveau de responsabilité quant au succès de l'approche analytique. Des domaines tels que la gouvernance des données, la maîtrise des données, les plateformes de données ouvertes, l'intégration et l'utilisation des données dans différentes parties de l'entreprise permettront aux utilisateurs professionnels d'effectuer des tâches traditionnellement réservées aux équipes informatiques et les données générées par les unités commerciales alimenteront les plateformes gérées par l'informatique. Ceci, couplé à une pénurie de data scientists et de professionnels de l'analyse, signifie également que les plateformes de données deviendront plus transparentes et plus faciles à déployer afin que toutes les parties d'une organisation puissent en tirer parti. – Frances Zelazny, directrice marketing de Analyse des signaux

Dans les années 2000, mettre Microsoft Office sur votre CV pouvait faire de vous un bon candidat pour un emploi, mais une décennie plus tard, c'était une compétence tenue pour acquise. De nos jours, la maîtrise de SQL peut vous permettre de vous démarquer, mais que se passera-t-il dans les années à venir ?

À mesure que la maîtrise des données augmente, les compétences analytiques deviendront la norme pour tous les professionnels et commenceront à disparaître des CV des candidats. Tout comme il est peu probable que vous voyiez une « maîtrise d’Office » aujourd’hui, il est peu probable qu’il y ait une « maîtrise des données » d’ici la fin de la décennie. Nous sommes entrés dans une troisième vague d’analyse, et avec elle l’espoir que les utilisateurs professionnels puissent interagir avec les données sans l’aide d’un expert. Très bientôt, si vous ne parvenez pas à associer des données concrètes au contexte commercial pour définir et exécuter une stratégie, vous rencontrerez des difficultés sur le lieu de travail. Le candidat idéal pour les entreprises en 2021 et au-delà sera une personne capable à la fois de comprendre et de parler les données, car dans quelques années à peine, la maîtrise des données sera quelque chose que les employeurs exigent et attendent. Ceux qui veulent progresser acquièrent ces talents dès maintenant. – Sudheesh Nair, PDG de ThoughtSpot

À mesure que les entreprises déplacent leur infrastructure de données vers une pile fédérée (un moteur interroge différentes sources) et désagrégée (le calcul est séparé du stockage est séparé du lac de données), nous verrons l'entreposage de données traditionnel et les architectures de bases de données étroitement couplées reléguées aux charges de travail héritées. Mais une chose restera la même en ce qui concerne ce changement : SQL continuera d’être la lingua franca de l’analyse. Les analystes de données, les ingénieurs de données, les data scientists et les chefs de produits ainsi que leurs administrateurs de bases de données utiliseront SQL pour l'analyse. – Dave Simmen, co-fondateur et directeur de la technologie (CTO), Ahana

Partout dans le monde, les organisations utilisent de plus en plus de systèmes d'analyse, mais sont confrontées au besoin de plates-formes de données événementielles capables d'effectuer une gestion des données en temps réel. En 2021, les organisations exigeront des plates-formes de données intelligentes capables de consommer des données statiques et en streaming provenant de diverses sources, dans n'importe quel format, taille ou vitesse ; Gérer les données (enrichir et cartographier) à la volée ; et fournissez les données aux systèmes, appareils et applications en toute sécurité et en temps réel. – Sean Bowen, PDG de Technologie Push

Une seule requête SQL pour toutes les charges de travail de données. La voie à suivre repose non seulement sur l’automatisation, mais également sur la rapidité et la portée avec lesquelles vous pouvez rendre vos analyses accessibles et partageables. L'analyse vous indique clairement quelles devraient être vos prochaines étapes pour satisfaire vos clients et vos employés, et même sauver des vies. La gestion de vos données n'est plus un luxe, mais une nécessité et détermine votre succès ou celui de votre entreprise. Si vous parvenez à supprimer la complexité ou le coût de la gestion des données, vous serez très efficace. En fin de compte, le gagnant de l'espace éliminera la complexité et le coût de la gestion des données, et les charges de travail seront unifiées afin que vous puissiez écrire une seule requête SQL pour gérer et accéder à toutes les charges de travail sur plusieurs résidences de données. – Raj Verma, PDG de Magasin unique

Les capacités d'IA et d'analyse étaient fournies par différentes plates-formes/équipes dans le passé. Au fil des années, nous constatons que la plateforme converge et que l'équipe d'IA se concentre davantage sur l'aspect algorithmique, tandis que les équipes de la plateforme d'IA et d'analyse ont fusionné pour fournir l'infrastructure logicielle pour les cas d'utilisation d'analyse et d'IA. – Haoyuan Li, fondateur et PDG, Alluxio

En tant que professionnels des données, nous avons une responsabilité envers le grand public. Je pense qu'au cours de la prochaine année, nous verrons des progrès vers un code d'éthique dans le domaine de l'analyse de données, dirigé par des entreprises conscientes qui reconnaissent la gravité des abus potentiels. Peut-être que le gouvernement américain interviendra et adoptera une version de son propre RGPD, mais je pense que les entreprises technologiques mèneront cette charge. Ce que Facebook a fait avec les données d’engagement n’est pas illégal, mais nous avons vu que cela peut avoir des effets délétères sur le développement des enfants et sur nos habitudes personnelles. Dans les années à venir, nous reviendrons sur la manière dont les entreprises utilisaient les données personnelles dans les années 2010 et grincerons des dents comme nous le faisons lorsque nous voyons des gens fumer dans un avion dans les films des années 1960. – Jeremy Levy, PDG de Indicatif

L’émotion est un facteur clé affectant le comportement des clients et a une forte influence sur la fidélité à la marque. Il est donc de plus en plus utile pour les entreprises de trouver un moyen de mesurer les émotions des clients au cours de leurs processus décisionnels. L'analyse émotionnelle se concentre sur l'étude et la reconnaissance de toute la gamme des émotions humaines, notamment l'humeur, l'attitude et la personnalité. Il utilise des modèles prédictifs et l'IA/ML pour analyser les mouvements humains, les choix de mots, les tons de la voix et les expressions faciales. L'analyse émotionnelle peut aider les entreprises à établir un profil client plus global, à comprendre comment influencer les émotions et à développer des produits et services personnalisés adaptés aux individus. L'analyse des sentiments sur les produits et services, dans toutes les zones géographiques, sur les réseaux sociaux et sur les sites Web d'avis, permet aux entreprises de mieux comprendre et d'améliorer leur niveau de satisfaction client. Grâce à l'analyse émotionnelle, les entreprises peuvent mieux comprendre comment leur marketing et leurs services influencent les émotions afin d'offrir des expériences client plus engageantes. – Paul Moxon, vice-président directeur, architecture de données chez dénoder

Il est difficile d’obtenir de bonnes analyses de produits. Chaque interaction génère une montagne de données, et fouiller dans celles-ci pour trouver cette « aiguille dans la botte de foin » nécessite beaucoup d’efforts, de discipline et de temps pour que cela fonctionne. Ces barrières à l’entrée signifient que l’analyse des données est souvent limitée aux entreprises qui disposent des ressources, de la bande passante et des connaissances nécessaires pour le faire correctement. Mais c’est aussi une discipline qui gagne en importance : même avant la pandémie, les interactions des consommateurs avec les marques se déroulaient généralement sur les plateformes numériques, et maintenant elles y sont presque exclusivement. Il existe d’innombrables quantités d’informations qui peuvent expliquer le retour sur investissement de chaque interaction, et sans aucun doute, certaines d’entre elles peuvent potentiellement changer la donne. Mais franchement, nous sommes humains, et si nous devons travailler dur pour tirer parti de quelque chose, nous aurons moins de chances de le faire de manière cohérente. C’est pourquoi, en 2021, l’analytique passera d’un jeu réactif – rassemblant des données que les analystes doivent ensuite parcourir pour trouver ces informations – à un jeu proactif, reliant les équipes directement à ces « a-ha ! des moments qui inspirent une action immédiate et éclairée. – Matin Movassate, PDG et fondateur de Heap

Intelligence artificielle

Alors que les entreprises visent des objectifs de réouverture et de récupération de sources de revenus suffisantes, elles devront tirer parti des technologies intelligentes pour recueillir en temps réel des informations clés qui leur permettront d’y parvenir. L’adoption des technologies d’intelligence artificielle (IA) peut aider les entreprises à comprendre si leurs stratégies visant à assurer la sécurité des clients et des employés fonctionnent, tout en continuant à favoriser la croissance. À mesure que les entreprises reconnaissent les capacités uniques de l’IA à faciliter la gestion et la conformité des politiques d’entreprise, à garantir la sécurité et à faire évoluer l’expérience client, nous assisterons à une augmentation des taux d’adoption de l’IA dans tous les secteurs. – Hillary Ashton, vice-présidente exécutive et directrice des produits chez Teradata

En 2021, nous verrons l’IA, l’apprentissage automatique et l’IoT définir et façonner nos vies et nos comportements, un phénomène qui se poursuivra pendant de nombreuses années. Ces progrès ont un impact sur notre façon de travailler, notre façon d’acheter, notre façon de dépenser, notre façon de faire chaque petite chose de notre vie. Mais je pense que la véritable star vers laquelle les entreprises se tourneront seront les technologies génériques telles que le cloud et l’edge computing, qui continueront à dominer en raison de leur capacité à traiter et à gérer toutes les données nécessaires qui alimentent l’IA, le ML et l’IoT, comme ainsi que des technologies habilitantes telles que iPaaS, APIM et RPA. Ces technologies continueront de mener la transformation numérique des entreprises à mesure qu’elles passeront d’une activité manuelle ou papier à une activité numérique qui pourra enfin exploiter la puissance de l’IA et de l’IoT. – Manoj Choudhary, directeur technique chez Jitterbit

L’intelligence artificielle devient moins artificielle en 2021 : même avec un vaccin contre le COVID-19 à l’horizon, la façon dont les gens travaillent et interagissent a fondamentalement changé. Au cours de la nouvelle année, le travail à distance se poursuivra, les exigences de distanciation sociale demeureront et les chaînes d’approvisionnement continueront d’être perturbées. Ce nouveau mode de vie exige une nouvelle façon pour les entreprises de poursuivre efficacement leurs opérations tout au long de la chaîne de valeur – du produit à l'usine jusqu'à l'utilisateur final. Le recours à l’intelligence artificielle (IA) sera la norme pour relever ces défis. Cependant, sans tenir compte de la manière dont les humains interagiront avec ces nouveaux systèmes autonomes et en tireront parti, l’IA échouera.

En 2021, les entreprises adopteront une approche centrée sur l’humain des initiatives d’IA, en comprenant les besoins et les valeurs des utilisateurs, puis en adaptant les conceptions et les modèles d’IA en conséquence, ce qui améliorera à son tour l’adoption. Pour que l’IA réussisse, les entreprises doivent accorder la même attention aux personnes et à la culture qu’à la technologie elle-même. Les équipes de gestion du changement organisationnel (OCM) joueront un rôle essentiel pour faire progresser la transformation numérique et l’IA en accompagnant les personnes dans le parcours de changement et en préparant l’organisation à obtenir des résultats mesurables. Une bonne gestion du changement est l’aspect le plus important – mais négligé – de toute initiative de transformation numérique. – George Young, directeur général mondial chez Kalypso

En 2021, les entreprises abandonneront les gains rapides en s’appuyant sur les systèmes d’IA pour se concentrer sur une valeur commerciale durable et significative. Ce changement entraînera des initiatives plus approfondies en matière de maîtrise des données dans les organisations. Cela exigera que les gens acquièrent de nouvelles compétences et se comportent de nouvelles manières. – Sundeep Reddy Mallu, responsable de l'analyse chez Gramener 

La plupart des consommateurs continueront d’être sceptiques à l’égard de l’IA. Alors que plusieurs grandes marques grand public sont sur la sellette autour d’une éthique douteuse de l’IA, la plupart des gens ne font toujours pas confiance à l’IA. Pour beaucoup, c’est parce qu’ils ne le comprennent pas ou ne réalisent même pas qu’ils l’utilisent quotidiennement. Les consommateurs bénéficient gratuitement de tellement de services basés sur l’IA – Facebook, Google, TikTok, etc. – qu’ils ne comprennent pas ce à quoi ils renoncent personnellement en échange, à savoir leurs données personnelles. Tant que le grand public restera naïf, il ne pourra pas anticiper les dangers que l’IA peut présenter ni comment se protéger – à moins que le marché n’éduque mieux les clients ou ne mette en œuvre des réglementations pour les protéger. Malgré cela, il existe des preuves que nous franchissons un cap en matière de fiabilité de l’IA. Quatre-vingt-un pour cent des chefs d’entreprise interrogés dans le cadre de l’enquête à venir de Pega se disent optimistes quant au fait que les biais liés à l’IA seront suffisamment atténués dans cinq ans. Les entreprises feraient mieux d’espérer que cela se révèle vrai – car à mesure que de plus en plus de citoyens prendront conscience de l’impact de l’IA sur leur vie et, dans certains cas, joueront en faveur, ils continueront à poser des questions plus difficiles qui érodent encore davantage la confiance dans l’IA, obligeant les entreprises à il faut leur répondre. – Vince Jeffs, directeur principal – Stratégie produit, IA marketing et décision, Pega

Les travailleurs numériques alimentés par l’IA aideront les entreprises à rester stratégiques à long terme. Rares sont ceux qui sont en désaccord avec l’idée selon laquelle l’IA et l’automatisation sont essentielles à la survie future des entreprises. Cependant, des recherches ont indiqué que la plupart des entreprises n’ont pas pleinement réalisé les avantages de leurs investissements en IA et en automatisation. En reliant de puissantes capacités d’IA aux processus métier via la main-d’œuvre numérique, nous verrons de plus en plus d’organisations mettre en œuvre une automatisation basée sur l’IA à grande échelle. L'automatisation basée sur l'IA sera de plus en plus liée à des initiatives stratégiques de base telles que l'amélioration de l'orientation client, la croissance des revenus, l'allocation du capital, la gestion de la chaîne d'approvisionnement, la gestion des risques, les coûts et l'efficacité opérationnelle, etc. Les travailleurs numériques alimentés par l’IA seront utilisés comme principaux outils pour exécuter la stratégie d’entreprise et gérer les risques à l’échelle de l’entreprise. L’adoption rapide et efficace de l’automatisation sera de plus en plus considérée comme un élément essentiel pour rester compétitif sur les marchés. – Eric Tyree, responsable de l'IA et de la recherche chez Blue Prism

L’expérimentation de l’IA deviendra plus stratégique. L'expérimentation a lieu tout au long du processus de développement du modèle : généralement, chaque décision ou hypothèse importante est accompagnée d'au moins une expérience ou des recherches antérieures pour justifier ces décisions. L'expérimentation peut prendre de nombreuses formes, depuis la création de modèles de ML prédictifs complets jusqu'à la réalisation de tests statistiques ou de représentation graphique de données. Essayer toutes les combinaisons de tous les hyperparamètres possibles, gestion des fonctionnalités, etc., devient rapidement introuvable. Par conséquent, nous commencerons à voir les organisations définir un budget de temps et/ou de calcul pour les expériences ainsi qu’un seuil d’acceptabilité pour l’utilité du modèle. – Florian Douetteau, PDG et co-fondateur de Dataiku

En 2021, nous verrons enfin l’IA se généraliser. En raison du COVID-19, les entreprises ont été contraintes de se transformer numériquement afin de survivre dans la nouvelle normalité. Selon nos recherches, l’accélération numérique ne montre aucun signe de s’arrêter au cours de la nouvelle année, puisque 86 % des entreprises récoltent actuellement les bénéfices d’une meilleure expérience client grâce à l’IA, et cette tendance devrait se poursuivre. La pandémie a également modifié les priorités des entreprises en matière d’investissement dans l’IA. Par exemple, nous avons vu des entreprises abandonner des tâches plus simples comme l’automatisation pour se concentrer sur la planification des effectifs et la modélisation de simulation. Alors que les organisations continuent de tirer profit de leurs investissements numériques dans des processus complexes, l’IA ne fera que devenir plus répandue et largement utilisée au cours de l’année prochaine. – Anand Rao, responsable mondial de l'intelligence artificielle chez PwC

La convergence de l'IA et de la BI améliorera la compréhension des données. L’IA a fait partie de toutes les discussions d’entreprise au cours des 5 dernières années. Et pourtant, des défis persistent pour démocratiser les informations avancées sur l’IA auprès de larges pans d’employés. À mesure que de nouveaux produits BI basés sur l’IA émergeront, les silos seront brisés et chaque utilisateur pourra exploiter l’analyse des données et trouver facilement des informations. Des interfaces simples, des informations personnalisées et des expériences de données engageantes deviendront les caractéristiques de l'analyse de données en 2021 et au-delà. – Dhiren Patel, directeur des produits de MachEye et responsable de la réussite client

Les préjugés raciaux dans de nombreux algorithmes de reconnaissance faciale basés sur l'IA ont été un grand sujet de conversation au cours de l'année écoulée et ont atteint leur paroxysme en raison des troubles sociaux de 2020. Des recherches ont révélé preuve répandue que les minorités raciales étaient beaucoup plus susceptibles que les Blancs d'être mal identifiées. En 2021, nous verrons la correction des biais de l’IA devenir un sujet majeur pour toute entreprise qui exploite l’IA ou la technologie de reconnaissance faciale. En utilisant des documents émis par le gouvernement, vous pouvez prouver rapidement et facilement que vous êtes propriétaire d'une pièce d'identité en analysant le visage figurant sur le document et en le comparant à celui qui tente d'accéder à votre système. 2021 sera l'année où les préjugés de l'IA seront révélés et les entreprises commenceront à mettre en œuvre des changements radicaux pour éliminer les préjugés raciaux dans leurs logiciels – dont certains peuvent être réalisés en mettant délibérément l'accent sur l'équité et la formation du système ML de l'entreprise pour réduire les visages raciaux. erreurs de reconnaissance. – Mohan Mahadevan, vice-président de la recherche, Onfido

2021 sera l’année où les équipes passeront de rencontres informelles avec l’IA à une relation engagée. L’IA n’est plus réservée aux projets de R&D. Il est temps de s’engager à adapter ces solutions au lieu de simplement flirter avec elles. Nous devons automatiser maintenant. – David Karandish, fondateur et PDG de Compétences 

Grâce à la confluence de la puissance de calcul, des données à l’échelle d’Internet et des algorithmes modernes d’apprentissage automatique, nous avons innové de façon remarquable avec l’IA au cours des dernières années. Dans les années à venir, nous entrerons dans une ère d’expansion, où une longue série de cas d’utilisation commerciale seront prototypés, conditionnés et produits en production – soit pour améliorer les produits et services existants, soit pour en créer de entièrement nouveaux. – Dave Costenaro, directeur des données chez Compétences 

Le succès de l’IA passe d’un objectif général à un objectif de niche. Alors que les investissements en IA continuent de croître dans les entreprises, celles-ci réévaluent leurs piles technologiques pour s’adapter à l’IA de niche, plutôt qu’aux boîtes noires « à usage général » qui prétendent tout faire. Les cas d'utilisation de niche et perfectionnés qui résolvent des problèmes spécifiques auront la priorité budgétaire, plutôt que l'automatisation qui promet de tout faire. – Viral Bajaria, CTO chez 6sense

Montée de l'intelligence artificielle étroite : il n'y a pas si longtemps, l'IA était ce que nous appelons aujourd'hui l'intelligence artificielle générale, comme les voitures autonomes ou la reconnaissance d'images. Cependant, il existe aujourd’hui une nouvelle catégorie d’intelligence artificielle étroite qui tente de reproduire un processus de prise de décision humain. Du point de vue de la chaîne d'approvisionnement, cette nouvelle IA peut aider à éclairer une meilleure prise de décision concernant tous les aspects d'une chaîne d'approvisionnement, depuis « Comment remplir un camion ? » ou "Comment puis-je recevoir les produits à temps?" En 2021, j’envisage une augmentation de ces étroit des solutions pour remplacer les décisions tactiques et à plus petite échelle. – Andy Fox, directeur de l'impact mondial chez LLamasoft

En marge, nous commencerons à voir la « contre-IA » commencer à se matérialiser. Alors que les gouvernements tentent de suivre les personnes et que les entreprises tentent de les manipuler ou d’acquérir des connaissances approfondies sur leur comportement, je prédis une réaction violente des méthodes visant à déjouer le suivi et les 360 clients. Un peu comme le travail effectué par divers groupes sur les outils de reconnaissance antifaciale, nous commencerons à voir des méthodes de haute et de basse technologie pour époustoufler les IA utilisées pour nous surveiller et nous comprendre. – Responsable de l’architecture pour Atos Amérique du NordAI Lab de en partenariat avec Google Cloud, Jonas Bull

Alors que de plus en plus d’agences commencent à adopter ces solutions basées sur l’IA et le ML, il incombe aux forces de l’ordre de respecter les politiques éthiques et d’éliminer les préjugés dans ces outils. À ce titre, les départements commenceront à établir leurs propres politiques et à travailler avec les organes directeurs sur une utilisation responsable et éthique de l'IA, y compris une formation appropriée pour les équipes et les fonctions commerciales concernées, ainsi qu'à créer un environnement avec une philosophie de décision responsable et basée sur les données. -fabrication. Pour aller plus loin, les organismes chargés de l’application de la loi continueront de veiller à ce que les systèmes d’IA soient vérifiés pour être exempts de préjugés et corrigés si nécessaire. Et ils ouvriront une ligne de communication avec le public pour promouvoir la transparence concernant l'utilisation de ces outils. – Heather Mahalik, directrice principale de l'intelligence numérique, Cellebrite

Nous verrons davantage d'entreprises axées sur les données exploiter l'open source pour l'analyse et l'IA en 2021. Les technologies d'analyse open source telles que Presto et Apache Spark alimentent les plates-formes d'IA et sont beaucoup plus flexibles et rentables que leurs homologues d'entrepôts de données d'entreprise traditionnels qui reposent sur la consolidation. données en un seul endroit – une entreprise longue et coûteuse qui nécessite généralement une dépendance vis-à-vis du fournisseur. L'année prochaine verra une augmentation de l'utilisation de moteurs d'analyse comme Presto pour les applications d'IA en raison de sa nature ouverte : licence open source, format ouvert, interfaces ouvertes et cloud ouvert. – Dipti Borkar, co-fondateur et directeur produit (CPO), Ahana

L’industrie s’éloignera des plates-formes d’IA horizontales génériques, telles qu’IBM Watson et Amazon Lex, pour se tourner vers des produits basés sur l’IA et des modèles de services gérés spécifiques à un domaine. Les plates-formes génériques ne sont pas des solutions. Elles démarrent à froid, sans aucune donnée de formation ni structure de modèle de données. La construction, puis son optimisation en production est une tâche experte et gourmande en ressources qui dépasse les capacités de la plupart des entreprises. Le passage du marché des premiers innovateurs à l’adoption par le marché de masse sera motivé en 2021 par l’adoption de produits basés sur l’IA spécifiques à un domaine, pré-formés pour un secteur spécifique et dont l’efficacité a été prouvée. – Jake Tyler, co-fondateur et PDG, IA finlandais

En 2021, l’IA ne figurera pas dans le spectre des compétences humaines. Nous pouvons avoir des algorithmes qui écrasent n'importe quel humain aux échecs, mais qui sont incapables de faire une tasse de thé, et des programmes informatiques capables d'effectuer des mathématiques des millions de fois plus vite que les humains. Mais si on leur demandait qui pourrait gagner la prochaine Coupe du monde, ils ne comprendraient même pas. la question. Leurs capacités ne sont pas universelles. Nous avons atteint un point avec l’IA où nous surestimons et sous-estimons simultanément la puissance des algorithmes. Lorsque nous les surestimons, nous voyons le jugement humain relégué au second plan – un endroit dangereux. L’utilisation d’un « algorithme mutant » pour noter les résultats du baccalauréat est le scandale du moment au Royaume-Uni, bien que l’algorithme produise de nombreux résultats qui violent tout simplement le bon sens. Lorsque nous sous-estimons les algorithmes, nous voyons des industries entières s’effondrer parce qu’elles n’ont pas vu de changement à l’horizon. Comment le secteur des taxis traditionnels peut-il être compétitif lorsque l’algorithme d’Uber peut vous conduire en moins de 3 minutes ? En 2021, on peut s’attendre à ce que les ingénieurs évitent les erreurs de l’IA et des algorithmes en n’essayant pas de mapper les algorithmes sur le spectre des compétences humaines. L’utilisation des technologies d’IA – telles que la reconnaissance vocale dans n’importe quel contexte – pour améliorer ce que les humains peuvent faire et trouver le bon équilibre entre l’automatisation de l’IA et les connaissances humaines pour des cas d’utilisation réels – tels que l’expérience client et les conférences Web – commencera à façonner l’utilisation efficace. de l’IA pour l’avenir. – Ian Firth, vice-président de Speechmatics

L'IA/ML responsable deviendra le sujet le plus brûlant de l'industrie du Cloud ML. Compte tenu de l'importance croissante accordée par la société à la lutte contre l'injustice et les préjugés et de l'intérêt général porté à une meilleure interprétabilité et explicabilité des modèles d'apprentissage automatique, les fournisseurs de cloud investiront et amélioreront leurs offres de ML pour offrir une suite complète de capacités de ML/IA responsables qui viseront à satisfaire et rassurer. les régulateurs, les modélisateurs, la direction et le marché sur l’utilisation équitable du ML. Pendant ce temps, l'IA/ML continuera de connaître une croissance et une utilisation explosives dans l'ensemble du secteur, avec des améliorations significatives en termes de facilité d'utilisation et d'UX combinées dans un cadre d'IA/ML responsable pour stimuler la prochaine poussée de croissance de ce secteur. – Yiannis Antoniou, analyste, Gigaom

L'AIOps pour les réseaux deviendra courant : l'année prochaine, l'AIOps passera de la théorie à la pratique pour de nombreuses organisations. Avec l'augmentation du nombre de travailleurs à distance et le fait que le domicile devienne la nouvelle micro-secteur, l'IA deviendra un enjeu majeur pour offrir une excellente expérience utilisateur client vers le cloud tout en contrôlant les coûts de support informatique pour les employés distants. Les équipes informatiques devront adopter l’AIOps pour faire évoluer et automatiser leurs opérations. Le SaaS cloud AIOps va bouleverser le paradigme du support client. Au lieu que les utilisateurs soumettent des tickets au service informatique, l'IA identifiera de manière proactive les utilisateurs ayant des problèmes de connectivité ou d'expérience et résoudra (le réseau autonome) ou ouvrira un ticket avec des actions correctives suggérées pour le service informatique. – Bob Friday, CTO de Mist Systems, une société Juniper Networks

L’intelligence artificielle et l’apprentissage automatique joueront un rôle bien plus important dans la stratégie de la chaîne d’approvisionnement que les années précédentes. Le besoin d’informations en temps réel tout au long de la chaîne d’approvisionnement continuera de croître en 2021, d’autant plus que les organisations de la chaîne d’approvisionnement réévaluent leurs opérations en raison des changements soudains dans les comportements d’achat pendant la pandémie de COVID-19.

Pour répondre à ce besoin, les organisations de la chaîne d'approvisionnement devront se tourner vers les technologies basées sur l'intelligence artificielle (IA) et l'apprentissage automatique (ML) pour mettre à niveau les analyses descriptives et prescriptives actuelles, et tirer parti de l'analyse prédictive, qui fournit des actions recommandées. before un incident se produit sur la base d'actions précédentes. Souvent, les entreprises sont confrontées à un chaos de silos et de fragmentation en raison de leur acquisition par de grandes entreprises dotées de systèmes différents. En 2021, les acteurs de la chaîne d'approvisionnement chercheront à déployer des jumeaux numériques dans tous les modules comme couche supplémentaire de visibilité et pour assurer la synchronisation entre les systèmes existants d'une entreprise et les nouvelles technologies, telles que les capteurs et les nanocapteurs, qui arrivent sur le marché en volumes de plus en plus importants. . – Mahesh Veerina, PDG de Cloudleaf

Les préjugés dans l’IA causent des dommages à grande échelle – depuis l’impact sur le processus de recrutement en renforçant les stéréotypes de genre jusqu’à la discrimination raciale dans l’évaluation du crédit et les prêts. Les organisations savent que l’embauche d’une main-d’œuvre diversifiée peut fournir un niveau de vérité aux modèles d’IA, et elles savent que les données de formation doivent être constamment surveillées pour détecter tout biais, car cela a un impact sur la qualité et la précision des algorithmes. Ils savent également qu’il n’existe actuellement aucune référence en matière de mesures fondées sur l’éthique pour véritablement atténuer les biais dans l’IA, et qu’il doit y en avoir. En 2021, nous verrons les organisations ne plus se contenter de reconnaître et de « s’inquiéter » des préjugés dans l’IA et commencer à prendre des mesures plus significatives pour les résoudre – car cela sera nécessaire. Des équipes et/ou des initiatives spécifiques seront formées pour lutter contre toutes les préoccupations qui relèvent de l’IA responsable, y compris tout ce qui va des biais inhérents aux données au traitement équitable des formateurs de données. La mise en place d’initiatives d’IA responsables deviendra non seulement un mandat au niveau du conseil d’administration pour certains, mais les partenaires et clients des entreprises menant des efforts en matière d’IA l’exigeront. – Appen Directeur technique Wilson Pang

L'AIOps va s'intensifier pour améliorer l'expérience client et assurer l'assurance et l'optimisation des applications. Après une année d’imprévisibilité derrière nous, les entreprises devront s’attendre à l’inattendu lorsqu’il s’agira de rendre les piles technologiques infaillibles et proactives. Nous verrons la demande pour l’AIOps continuer de croître, car elle peut répondre et anticiper ces scénarios inattendus grâce à l’IA, au ML et à l’analyse prédictive. La complexité croissante des applications d'entreprise numériques couvrant les infrastructures hybrides sur site et cloud, associée à l'adoption d'architectures d'applications modernes telles que la conteneurisation, entraînera une augmentation sans précédent du volume et de la complexité des données. Alors que la surcharge de données des environnements numériques modernes peut retarder la réparation et submerger les équipes d'opérations informatiques, les ensembles de données bruyants seront un obstacle du passé, car des stratégies plus intelligentes et des systèmes AIOps centralisés aident les organisations à améliorer l'expérience client, à garantir et optimiser les applications modernes, à les relier à une automatisation intelligente et prospérer en tant qu'entreprises numériques autonomes. En fait, les approches conventionnelles en matière d'opérations informatiques ne sont peut-être plus réalisables, ce qui rend l'adoption de l'AIOps inévitable pour pouvoir faire évoluer les ressources et gérer efficacement les environnements modernes. – Ali Siddiqui, directeur des produits, Logiciel BMC

La dure réalité est que 2021 sera l’année où ceux qui pratiquent réellement l’IA commenceront à générer de la valeur à grande échelle, tandis que ceux qui passeront des mois à former des modèles fragiles et ne parviendront pas à rattraper leur retard seront désavantagés de manière croissante et exponentielle. Les défis du dernier kilomètre ne deviendront pas plus faciles, mais un changement fondamental de pensée et d’approche sera essentiel pour surmonter les obstacles liés à la complexité. – Dr Josh Sullivan, chef de Modzy

Évaluation élégante des risques : à mesure que l'espace AIOps continue de mûrir, nous voyons une opportunité pour les fournisseurs d'affiner leurs capacités d'évaluation des risques afin de permettre aux clients de résoudre les problèmes avec une quasi-certitude, sans rien casser d'autre dans le système. En 2021, un domaine dans lequel nous verrons une attention accrue de la part des deux fournisseurs et une plus grande adoption par les utilisateurs concernera la mise en place d'une cartographie des dépendances plus élégante afin que les ingénieurs puissent évaluer avec précision les risques dans le cadre du processus de remédiation ou du cycle de construction-déploiement pour les modifications logicielles, pour garantir qu'un changement dans une partie d'un environnement ne brisera pas le système ailleurs. – Michael Olson, directeur du marketing produit chez New Relic

En 2021, l'IA ne sera pas cartographiée sur le spectre des compétences humaines : nous pouvons avoir des algorithmes qui écrasent n'importe quel humain aux échecs mais sont incapables de préparer une tasse de thé et des programmes informatiques capables d'effectuer des mathématiques des millions de fois plus rapidement que les humains, mais, si on leur demandait qui pourrait gagner la prochaine Coupe du monde, ils ne comprendraient même pas la question. Leurs capacités ne sont pas universelles. Nous avons atteint un point avec l’IA où nous surestimons et sous-estimons simultanément la puissance des algorithmes.

Lorsque nous les surestimons, nous voyons le jugement humain relégué au second plan – un endroit dangereux. L’utilisation d’un « algorithme mutant » pour noter les résultats du baccalauréat est le scandale du moment au Royaume-Uni, bien que l’algorithme produise de nombreux résultats qui violent tout simplement le bon sens. Lorsque nous sous-estimons les algorithmes, nous voyons des industries entières s’effondrer parce qu’elles n’ont pas vu de changement à l’horizon. Comment le secteur des taxis traditionnels peut-il être compétitif lorsque l’algorithme d’Uber peut vous conduire en moins de 3 minutes ? En 2021, on peut s’attendre à ce que les ingénieurs évitent les erreurs de l’IA et des algorithmes en n’essayant pas de mapper les algorithmes sur le spectre des compétences humaines. L’utilisation des technologies d’IA – telles que la reconnaissance vocale dans n’importe quel contexte – pour améliorer ce que les humains peuvent faire et trouver le bon équilibre entre l’automatisation de l’IA et les connaissances humaines pour des cas d’utilisation réels – tels que l’expérience client et les conférences Web – commencera à façonner l’utilisation efficace. de l’IA pour l’avenir. – Ian Firth, vice-président de Speechmatics

Le ML en périphérie sera l'un des principaux objectifs du secteur de l'IA/ML en 2021. La demande d'applications de pointe intelligentes augmente rapidement dans les secteurs de l'automobile, des usines intelligentes et de la maison intelligente. Avec des outils de développement Edge ML efficaces largement disponibles et des sociétés de semi-conducteurs lançant de nouveaux MCU dotés de fonctionnalités ML, l'adoption des applications Edge ML deviendra la tendance majeure. – Sang Won Lee, PDG de Qeexo

La communauté clinique augmentera son utilisation de approches d'apprentissage fédéré pour créer des modèles d'IA robustes dans diverses institutions, zones géographiques, données démographiques des patients et scanners médicaux. La sensibilité et la sélectivité de ces modèles surpassent les modèles d’IA construits dans une seule institution, même lorsqu’il existe de nombreuses données avec lesquelles s’entraîner. En prime, les chercheurs peuvent collaborer à la création de modèles d’IA sans partager d’informations confidentielles sur les patients. L’apprentissage fédéré est également bénéfique pour créer des modèles d’IA pour les domaines où les données sont rares, comme la pédiatrie et les maladies rares. – Kimberly Powell, vice-présidente et directrice générale, NVIDIA Healthcare

Centre d'excellence en IA : les entreprises se sont efforcées au cours des 10 dernières années de recruter des data scientists hautement rémunérés, mais leur productivité a été inférieure aux attentes en raison du manque d'infrastructure de soutien. De plus en plus d’organisations accéléreront le retour sur investissement de l’IA en créant une infrastructure centralisée et partagée à l’échelle du supercalcul. Cela facilitera la formation et le développement des talents en science des données, le partage des meilleures pratiques et accélérera la résolution de problèmes complexes d’IA. – Charlie Boyle, vice-président et directeur général, NVIDIA DGX Systems

L'expression de l'IA se concentrera sur les expériences utilisateur transparentes : lorsque nous examinons l'histoire de l'IA, les algorithmes étaient rois et l'expérience utilisateur venait en deuxième position. Mais à l’approche de 2021, les applications basées sur l’IA se concentreront de plus en plus sur la convivialité comme priorité. Les meilleures expressions de l’IA sont transparentes pour l’utilisateur et fonctionnent discrètement en arrière-plan. Les plates-formes prises en charge par l'IA/ML trouveront de nouvelles façons d'amener les utilisateurs vers de meilleures conclusions et solutions.

Cela se produit en interrogeant d’énormes volumes de données, en recherchant des anomalies, des idées et des tendances, puis en présentant les résultats dans le contexte commercial approprié. Une IA/ML véritablement fluide devrait être l’objectif final de toutes les plateformes commerciales. J’espère voir des applications d’IA plus sophistiquées qui identifieront ce que chaque utilisateur essaie d’accomplir et feront apparaître automatiquement des informations pouvant être exploitées pour une action rapide. Cette facilité d'utilisation sera extrêmement précieuse pour le large éventail d'utilisateurs, tant techniques que non techniques. – Sanjay Vyas, directeur technique de Organisé

L'IA éthique jouera un rôle clé dans le développement de produits en 2021, mais il s'agit d'un problème difficile à résoudre : l'IA éthique devient une question importante, mais un dilemme difficile à résoudre. Les entreprises utilisent les données et l’IA pour créer des solutions, mais elles contournent peut-être les droits humains en termes de discrimination, de surveillance, de transparence, de confidentialité, de sécurité, de liberté d’expression, de droit au travail et d’accès aux services publics. 

Pour éviter d’accroître les risques de réputation, réglementaires et juridiques, une IA éthique est impérative et finira par céder la place à une politique en matière d’IA. La politique en matière d’IA garantira un niveau élevé de transparence et des mesures de protection pour les personnes. Dans le domaine des données, les PDG et les CTO devront trouver des moyens d’éliminer les biais dans les algorithmes grâce à une analyse, un contrôle et une programmation minutieux. – Krishna Tammana, CTO de Talend

L’année prochaine, nous verrons les entreprises se concentrer, adopter et développer des solutions d’IA qui génèrent réellement un retour sur investissement, par opposition aux gadgets ou à la création de technologies pour le plaisir de la technologie. Les organisations se concentreront sur des progrès démontrables et des résultats mesurables et investiront donc dans des solutions qui résolvent des problèmes spécifiques. Les entreprises qui ont une compréhension approfondie des complexités et des défis que leurs clients cherchent à résoudre et qui sont prêtes à investir leurs dollars en R&D dans les solutions connaîtront le succès. – Joe Petro, directeur technique chez Nuance Communications, Inc..

Le déficit de compétences en IA persistera et les organisations réfléchiront à de nouvelles façons de s’adapter. Il a été difficile pour les organisations d’embaucher les talents nécessaires pour déployer l’IA et en récolter tous les avantages, la moitié des initiés du secteur signalant ce défi. De plus, de nombreuses organisations ont accéléré leurs initiatives de transformation numérique de quelques mois ou années – mais il existe un écart dans les talents disponibles et les opportunités de formation pour soutenir ces initiatives. En raison de la demande accrue, nous prévoyons que les entreprises proposeront davantage d’initiatives de perfectionnement et d’incitations aux employés pour qu’ils acquièrent de nouvelles compétences, et qu’elles s’efforceront de développer les connaissances en matière de données et d’IA à tous les niveaux de l’organisation.

La pandémie a offert aux organisations l’occasion de donner la priorité à ces actions et d’aider les employés à développer de nouvelles compétences dans le cadre de leur transition rapide vers le travail à distance. Pour l’avenir, 2021 sera placée sous le signe de l’éducation – à la fois en opérant dans une nouvelle normalité et en rattrapant les initiatives numériques accélérées. – Traci Gusher, directrice, données et analyses, KPMG

La lutte contre les préjugés dans les algorithmes d’IA sera une priorité absolue, ce qui entraînera le déploiement de lignes directrices pour la prise en charge de l’apprentissage automatique de l’origine ethnique pour la reconnaissance faciale. Les entreprises sont de plus en plus préoccupées par les préjugés démographiques dans les algorithmes d’IA (race, âge, sexe) et par leurs effets sur leur marque et par la possibilité de soulever des problèmes juridiques. Évaluer la manière dont les fournisseurs répondent aux préjugés démographiques deviendra une priorité absolue lors de la sélection de solutions de vérification d'identité en 2021. Selon Gartner, plus de 95 % des appels d'offres pour la vérification d'identité centrée sur les documents (en comparant une pièce d'identité émise par le gouvernement à un selfie) contiendront des exigences claires. concernant la réduction des biais démographiques d’ici 2022, soit une augmentation par rapport à moins de 15 % aujourd’hui. Les organisations auront de plus en plus besoin de réponses claires aux organisations qui souhaitent savoir comment la « boîte noire » d’IA d’un fournisseur a été construite, d’où proviennent les données et dans quelle mesure les données de formation sont représentatives pour la population plus large desservie.

Alors que les organisations continuent d’adopter la technologie de reconnaissance faciale biométrique pour la vérification de l’identité, l’industrie doit s’attaquer aux biais inhérents aux systèmes. Le sujet de l’IA, des données et de l’ethnicité n’est pas nouveau, mais il doit atteindre son paroxysme en 2021. Selon chercheurs Au MIT, qui a analysé les ensembles de données d'imagerie utilisés pour développer des technologies de reconnaissance faciale, 77 % des images étaient masculines et 83 % blanches, ce qui indique l'une des principales raisons pour lesquelles des biais systématiques existent dans la technologie de reconnaissance faciale. En 2021, des lignes directrices seront introduites pour compenser ce biais systématique. En attendant, les organisations utilisant la technologie de reconnaissance faciale devraient demander à leurs fournisseurs de technologie comment leurs algorithmes sont formés et s'assurer que leur fournisseur ne forme pas d'algorithmes sur des ensembles de données achetés. – Robert Prigge, PDG de Jumio

Big Data

En 2021, la collecte de données ouverte et gratuite alimentera les innovations futures. Une enquête récente de Frost & Sullivan a révélé que 54% des décideurs informatiques ont exprimé le besoin d’une collecte de données à grande échelle pour suivre le rythme de la croissance de leurs entreprises et de la concurrence en ligne. Toutefois, pour que les entreprises puissent utiliser efficacement les données en ligne, elles doivent d’abord être accessibles et non bloquées. Aujourd’hui, les entreprises interdisent souvent les tentatives de collecte de données publiques même si elles les collectent elles-mêmes. Cette situation est causée par deux facteurs majeurs : la nécessité continue de bloquer les activités en ligne malveillantes ou frauduleuses dans le cadre des mesures de sécurité, et l’idée selon laquelle ces données publiques contribuent à l’avantage concurrentiel d’une entreprise.

Je pense qu’à partir de 2021, les entreprises se rendront compte que la collecte de données publiques fait partie de la conduite commerciale générale et nécessaire. Ils se rendront également compte que les données ne sont pas essentielles à l’avantage concurrentiel d’une entreprise. Des domaines tels que les stocks, les prix, la qualité des produits et la qualité du service, etc. jouent également un rôle important. Une fois cette prise de conscience établie, le blocage des données ne servira qu’à se protéger contre les activités abusives en ligne. Pour sécuriser la collecte de données éthique, j’espère que nous promouvrons tous un échange ouvert d’informations dans des centres de données centraux. Les sites continueront de bloquer les agresseurs ; cela ne changera pas. Cependant, ils peuvent autoriser les collecteurs de données éthiques. En fin de compte, l’avenir de la collecte de données en ligne dépend de ceux qui la contrôlent. Au rythme rapide auquel les données sont produites, les futurs efforts de collecte de données devront évoluer et se développer. Les entreprises auront besoin d’une collecte de données automatisée pour suivre le rythme de leurs concurrents et pouvoir collecter des données plus rapidement. Après tout, la rapidité avec laquelle les entreprises peuvent collecter de nouvelles données déterminera leur pertinence et leur succès. – Ron Kol, directeur technique chez Réseaux Luminati

Les données deviendront véritablement opérationnelles à l’échelle de l’entreprise : la quantité de données dont disposent les entreprises augmente de façon exponentielle : il existe plus de sources, de types et de quantités que jamais auparavant, et des quantités croissantes de données sont fournies quasiment en temps réel. Mais pour vraiment comprendre les données, y accéder et agir sur celles-ci, les entreprises devront changer leur façon de les consommer, en commençant par éliminer les intermédiaires. En trouvant des moyens d'automatiser les processus de catalogage et de profilage des données, les employés, y compris ceux qui ont moins d'of une formation technique – seront en mesure d’obtenir les données dont ils ont besoin pour prendre de bonnes décisions commerciales de manière efficace et efficiente. – Eric Raab, vice-président directeur, ingénierie et produit, Constructeurs d'informations

Il est essentiel de capturer et de synthétiser des données « alternatives » : à quelle date aurions-nous pu détecter le COVID-19 ? Des études de données « alternatives » – en l’occurrence des données de trafic en dehors des hôpitaux de Wuhan et des recherches par mots-clés effectuées par les internautes dans cette zone – indiquent que le virus aurait pu circuler fin 2019. La communauté des investisseurs a été pionnière dans l’utilisation de données alternatives. , y compris l'audio, les photos aériennes, la qualité de l'eau et l'ambiance.10 Il s'agit de la première ligne de l'innovation basée sur les données, et obtenir un avantage dans ce domaine peut entraîner d'énormes gains. Mais à partir de 2020, les données alternatives deviendront monnaie courante, dans le but de détecter les anomalies beaucoup plus tôt.

À partir de là, nous pouvons obtenir des données dérivées, qui proviennent de combinaisons, d’associations et de synthèses avec des données provenant de systèmes d’enregistrement. Comme le dit IDC : « À mesure que davantage de données sont capturées et deviennent disponibles à partir de sources externes, la possibilité d’en utiliser davantage devient un facteur de différenciation. Cela implique de prendre des leçons dans des secteurs autres que le vôtre. 11 Cette tendance, similaire à ce que Gartner appelle « X Analytics », 12 n'est pas nouvelle mais est en train de devenir un fondement important des données et de l'analyse modernes, grâce à un traitement moins coûteux et à des techniques d'IA plus matures – notamment les graphes de connaissances, les structures de données, les traitement du langage (NLP), IA explicable et analyses sur tous les types de contenu. Cette tendance dépend entièrement du ML et de l’IA, car l’œil humain ne peut pas tout saisir. – Dan Sommer, directeur principal, responsable de l'intelligence du marché mondial chez Qlik

Dans l’industrie, nous parlons souvent de briser les silos de données, mais nous devons reconnaître que certains silos existeront toujours. Dans les grandes organisations, vous aurez toujours des départements locaux ou des régions qui disposeront de leurs propres outils ou bases de données, et cela continuera. Si vous disposez de la souveraineté des données, ce bureau local de votre organisation aura un silo. C’est pourquoi la meilleure approche consiste à examiner comment vous pouvez mieux comprendre les données dont vous disposez. Une plateforme de data intelligence peut servir d’index et de carte, vous montrant les silos dont vous disposez et comment ils sont connectés en fournissant une vue à 360 degrés des actifs de données. – Stijn « Stan » Christiaens, co-fondateur et CTO de Collibra

OpenTelemetry créera une surcharge de données. En 2021, l’utilisation d’OpenTelemetry deviendra la nouvelle norme du secteur. Oui, cela facilitera la collecte de données en créant une cohérence entre les sources, mais cela créera également un flux de données pour les entreprises, rendant encore plus difficile la recherche de la petite partie des données contenant des informations exploitables. Le flux constant de données submergera les entreprises si elles ne disposent pas d’un système en place pour trouver rapidement les 5 % réellement exploitables. Pour cette raison, les équipes informatiques passeront de l’acquisition de données à la création d’un cadre permettant d’agir à partir des données. À mesure que les équipes le feront, il sera impératif de mettre en œuvre des outils capables de commencer immédiatement à faire apparaître des données exploitables dans le temps nécessaire à la préparation d'un cappuccino. – Phil Tee, PDG de Moogsoft

Un jumeau numérique est un modèle virtualisé d'un processus, d'un produit ou d'un service. L'association des mondes virtuel et physique permet l'analyse des données et la surveillance du système pour aider à identifier les problèmes avant même qu'ils ne surviennent. Cela évite les temps d'arrêt, développe de nouvelles opportunités et même des plans pour l'avenir en utilisant des simulations. Cette génération de jumeaux numériques permet aux entreprises non seulement de modéliser et de visualiser un actif commercial, mais également de faire des prédictions, de prendre des mesures en temps réel et d'utiliser les technologies actuelles telles que l'IA et le ML pour augmenter et agir sur les données de manière intelligente. – Anil Kaul, PDG de Données absolues

La transformation numérique va – enfin – commencer à devenir transformationnelle. À l’heure actuelle, la « transformation numérique » est devenue un mot à la mode que toutes les entreprises ont appris à reconnaître, mais la grande majorité (80 % selon IDC) de ces efforts sont encore de nature trop tactique. L'automatisation des processus robotiques (RPA), par exemple, peut être considérée comme un outil de transformation, mais ce n'est pas le cas en soi. Pour que les organisations connaissent une véritable transformation en 2021, elles devront exploiter des plates-formes plus avancées combinant des fonctionnalités de base d'automatisation et d'IA, telles que l'analyse de texte, la compréhension de documents et l'exploration de processus. Il est également essentiel que ces plates-formes disposent de fonctionnalités low-code qui permettent aux développeurs citoyens de créer et de déployer des automatisations de niveau entreprise qui génèrent de la valeur pour leurs organisations. Sans cela, il restera difficile pour les entreprises de mettre en œuvre une transformation numérique à l’échelle de l’entreprise, alimentée par la capacité de déployer facilement l’automatisation, même pour les processus les plus complexes. – Guy Kirkwood, évangéliste en chef à UiPath

Business Intelligence

Prolifération du ML low-code/no-code. L’augmentation des systèmes de ML low-code et no-code, conçus pour rendre l’IA plus accessible aux entreprises, contribuera à améliorer l’adoption de l’IA. Cependant, les entreprises finiront par atteindre un plafond et dépasseront l’approche universelle, recherchant des cas d’utilisation plus avancés de l’IA qui nécessitent une expertise plus approfondie. En fin de compte, le besoin de personnalisation augmentera le besoin de data scientists qualifiés, plutôt que de systèmes low-code pour les remplacer. Nous n’allons pas pour autant automatiser le besoin de data scientists. — Kevin Goldsmith, directeur technique, Anaconda

La Business Intelligence évolue vers un nouveau paradigme d'analyse de données avancée avec l'intégration du langage naturel, de la recherche naturelle, de l'IA/ML, de l'analyse augmentée, de la préparation automatisée des données et des catalogues de données automatisés. Cela transformera les processus décisionnels des entreprises grâce à des informations en temps réel de meilleure qualité. – Ramesh Panuganty, PDG de la société BI MachEye

BI et AI approfondiront leur liaison. Qu'il s'agisse d'évaluer des ensembles de données BI par rapport à des modèles ML et de visualiser les prédictions, ou de tirer parti du traitement du langage naturel pour générer des visualisations, des informations et des résumés, l'IA et la BI augmenteront leurs synergies. Et à mesure que les capacités BI conventionnelles continuent de se banaliser, les fournisseurs auront besoin de BI+IA comme nouveau front dans la guerre de l’innovation. – Andrew Brust, analyste, Gigaom

Chatbots

De l'employé à l'entreprise – L'adoption de l'IA conversationnelle sera naturelle et constitue souvent le premier contact. L’IA conversationnelle est normalisée et là pour rester. Les interfaces qui guident les consommateurs sur le marché en ligne, les employés dans les cours de formation et les utilisateurs dans les moteurs de recherche et les sites Web ont enregistré d'excellents retours sur investissement lorsqu'elles ont été équipées d'une technologie avancée d'IA conversationnelle. – Shiva Ramani, PDG de iOPEX

L’IA ne remplacera pas les êtres humains de si tôt. Lorsque vous examinez aujourd’hui l’utilisation de l’IA dans les opérations destinées aux consommateurs, elle est principalement utilisée dans les chatbots pris en charge par l’IA et les fonctionnalités de personnalisation client. Si nous regardons comment les consommateurs ont profité des fonctionnalités prises en charge par l’IA pendant la pandémie, nous pouvons voir qu’ils les utilisent réellement pour résoudre les problèmes plus rapidement grâce à des agents humains. Des entreprises comme Bank of America, qui dispose d'un chatbot alimenté par l'IA nommé Erica, ont vu des consommateurs utiliser Erica pour trouver la meilleure solution pour impliquer les équipes de support client. Plutôt que de poser des questions à Erica pour résoudre directement les problèmes, les clients ont simplement demandé à Erica comment contacter l'équipe du service client pour résoudre rapidement leur problème avec l'agent humain approprié. – James Isaacs, président et chef de la direction de Cyara

Aujourd’hui, nous interagissons plus que jamais avec les robots, qu’il s’agisse des chatbots du service client ou de l’IA de nos appareils, comme Siri et Alexa. Ces robots sont utilisés pour la prise de décision en temps réel afin d'automatiser des processus qui étaient auparavant effectués par des humains. Par exemple, les robots ont automatisé les processus de retour au détail pour des entreprises comme Amazon. Cependant, il devient plus compliqué pour les entreprises de gérer l’identité des robots automatisés, en particulier lorsqu’ils interagissent avec d’autres robots à la vitesse d’une machine. Les identités des robots doivent être gérées et protégées par l'entreprise, à l'instar de l'identité des employés et des clients, afin que les données ne soient pas compromises. Il est important que les DSI et les responsables de la sécurité le gardent à l’esprit, car l’utilisation de robots à des fins d’automatisation ouvrira la voie à de nouveaux vecteurs d’attaque si les API de ces robots sont piratées. – Jasen Meece, PDG de Cloudentité

Le NLP (traitement du langage naturel) change la donne sur l'analyse des données : tout comme nous utilisons Google Home et Alexa dans notre vie quotidienne, l'analyse conversationnelle via le NLP sera la solution idéale pour les entreprises qui souhaitent extraire de précieuses informations Big Data de leurs opérations commerciales. Cela implique de découvrir des tendances qui sont peut-être passées inaperçues et de permettre aux experts de l'entreprise d'interagir avec les données de manière significative. – Sam Mahalingam, directeur technique, Altair

L’IA conversationnelle a avant tout besoin d’un canal de messagerie omniprésent sur lequel converser. L'essor de la messagerie professionnelle sur les canaux IP tels que Whatsapp, GIP et autres entraîne une résurgence de l'utilisation de l'IA conversationnelle. Les entreprises de secteurs tels que la banque, le commerce électronique, la vente au détail, les voyages, etc. utilisent désormais l'IA conversationnelle pour pratiquement tous les points de contact client, y compris le marketing, les ventes et l'assistance. Grâce aux progrès récents en matière de traitement du langage naturel (NLP), l'IA conversationnelle est sur le point de transformer la façon dont les consommateurs interagissent avec les entreprises. – Beerud Sheth, PDG de Gupshup

le cloud

Je pense que nous commencerons à voir une approche plus réfléchie et équilibrée de l’adoption du cloud multi et hybride, en particulier pour le cloud hybride. Nous avons dépassé les débats entre cloud public et cloud privé, et les entreprises acceptent la réalité selon laquelle le cloud n'est pas une décision « soit l'un soit l'autre ». Historiquement, nous avons vu le « cloud public » être associé à une innovation de pointe et le « cloud privé » à des entreprises traditionnelles, lentes et résistantes au changement. Ce sentiment évolue, à mesure que les entreprises commencent à mieux comprendre la valeur qu'elles peuvent tirer d'une architecture de cloud hybride qui leur permet de déployer des applications agiles et modernes sur la plate-forme qui équilibre au mieux leurs besoins spécifiques en matière de coûts, de performances, de sécurité, de conformité et de gouvernance.

Cela s’accompagne d’une augmentation des technologies hybrides telles que les conteneurs et les plates-formes d’intégration hybrides. Une autre considération concerne le calcul connecté, qui est une solution de fournisseur de cloud hyperscale exécutée dans votre propre centre de données. Les exemples sont AWS Outposts, Google Anthos et Microsoft Azure Stack. Bien que leur adoption ait été trop lente à ce jour, nous pourrions commencer à voir un début de croissance ici, à mesure que les clients réalisent la valeur du cloud privé/public, associée à la cohérence de la consommation des services cloud à grande échelle. – Kim King, directrice du marketing produit – Gestion du cloud chez Snow Software

Le COVID-19 accélère les dépenses cloud : avec l'augmentation du travail à distance due à la pandémie de COVID-19, les entreprises investissent une plus grande part de leurs budgets informatiques dans les technologies basées sur le cloud, en s’éloignant des processus papier. Les dépenses cloud moyennes des entreprises ont augmenté de 59 % par rapport à 2018 pour atteindre 73.8 millions de dollars en 2020. Cette tendance se poursuivra en 2021, car les entreprises seront obligées d'adopter des stratégies de travail à distance et de reconnaître les avantages de maintenir ces modes de fonctionnement même lorsqu'elles commencent à transférer leurs employés. retour aux emplacements physiques. Un bon exemple sera celui des contrats où la COVID a conduit à la transformation numérique des systèmes de demande, d’approbation, d’exécution et de gestion post-attribution des contrats et a jeté les bases d’encore plus de progrès dans la gestion du cycle de vie des contrats. – Harshad Oak, directeur général, Adoption client et valeur, chez Icertis

Autrefois considérée comme une « transition » sur la voie du cloud, l’hybride est désormais la destination : une approche de cloud hybride était autrefois considérée comme le tremplin vers une mise en œuvre axée sur le cloud. Aujourd’hui, les clients réalisent qu’une approche hybride est la plus logique, à la fois stratégiquement pour les besoins de leur entreprise et économiquement. Selon IDC, 70 % des applications et données des clients restent en dehors du cloud public. Dans cette optique, en 2021, nous verrons encore plus de clients adopter une approche hybride. En raison de la latence des données, de l'enchevêtrement des applications et de raisons de sécurité et de conformité, nous constatons que de plus en plus d'organisations de tous secteurs souhaitent conserver leurs données sur site. Dans le même temps, en partie à cause de la pandémie, des frais de sortie de données et de la dépendance vis-à-vis des fournisseurs de cloud public, la réalité est que les DSI et les organisations informatiques adoptent l’hybride comme un résultat et non comme un moyen pour parvenir à une fin. – Keith White, directeur général, GreenLake Cloud Services

L’agilité du cloud est fantastique, mais elle peut facilement entraîner des coûts exorbitants. De même, les clusters Big Data partagés sur site gaspillent souvent des ressources. Ces deux éléments entraînent le non-respect des SLA. Si elles veulent éliminer les dépenses excessives chroniques, les entreprises doivent mettre en place une méthode pour surveiller et gérer leurs dépenses cloud. Le moyen le plus efficace d’y parvenir consiste à recourir à l’observabilité et au réglage automatique. – Ash Munshi, PDG, données sur le poivre

Base de données/Entrepôt de données/Lac de données

Les solutions que les entreprises utilisent pour stocker leurs données continueront d’évoluer rapidement au cours de l’année prochaine. Nous constatons une augmentation des migrations vers des solutions de bases de données relationnelles open source, des solutions de bases de données non relationnelles, des solutions de bases de données basées sur PaaS et une combinaison de celles-ci. L'objectif principal de ces initiatives peut être de les regrouper sous la rubrique réduction des coûts d'exploitation, qu'elles soient entreprises pour réduire les lourds contrats de support de fournisseurs comme Oracle et Microsoft (les migrations de bases de données open source et non relationnelles entrent dans cette catégorie), réduire les dépenses en personnel (les migrations vers les services PaaS entrent dans cette catégorie) ou gagner en efficacité en migrant vers une solution de base de données plus spécialement conçue.

La migration des données se produit actuellement et à grande échelle. De nombreuses considérations doivent donc être prises en compte lors de la transition vers ces nouvelles solutions de bases de données, notamment les capacités de la solution de l'état futur par rapport à l'état actuel, l'impact sur les contrats de licence et de support. , et une méthode pour garantir que les bonnes solutions sont déployées. Bien que les solutions PaaS offrent de grands avantages, les administrateurs de base de données doivent toujours surveiller et gérer ces systèmes et travailler avec les équipes d'application pour améliorer l'efficacité en termes de performances, de disponibilité et de sécurité. – Marc Caruso, architecte en chef, Syntaxe

360. C’est le nombre de systèmes de bases de données existants. Et même si le choix est bon et que trouver le bon outil pour le travail est intelligent, cela ajoute également une complexité majeure. À mesure que les entreprises se modernisent dans le cloud, elles rechercheront une simplification, ce qui entraînera une consolidation massive du marché des bases de données. Les fournisseurs de bases de données offrant des fonctionnalités multifonctionnelles gagneront, plutôt qu'une multitude de bases de données de niche qui doivent être assemblées et nécessitent différentes manières d'accéder aux données. – Franz Aman, CMO de la société de bases de données relationnelles MariaDB

Les solutions que les entreprises utilisent pour stocker leurs données continueront d’évoluer rapidement au cours de l’année prochaine. Nous constatons une augmentation des migrations vers des solutions de bases de données relationnelles open source, des solutions de bases de données non relationnelles, des solutions de bases de données basées sur PaaS et une combinaison de celles-ci. L'objectif principal de ces initiatives peut être de les regrouper sous la rubrique réduction des coûts d'exploitation, qu'elles soient entreprises pour réduire les lourds contrats de support de fournisseurs comme Oracle et Microsoft (les migrations de bases de données open source et non relationnelles entrent dans cette catégorie), réduire les dépenses en personnel (les migrations vers les services PaaS entrent dans cette catégorie) ou gagner en efficacité en migrant vers une solution de base de données plus spécialement conçue.

La migration des données se produit actuellement et à grande échelle. De nombreuses considérations doivent donc être prises en compte lors de la transition vers ces nouvelles solutions de bases de données, notamment les capacités de la solution de l'état futur par rapport à l'état actuel, l'impact sur les contrats de licence et de support. , et une méthode pour garantir que les bonnes solutions sont déployées. Bien que les solutions PaaS offrent de grands avantages, les administrateurs de base de données doivent toujours surveiller et gérer ces systèmes et travailler avec les équipes d'application pour améliorer l'efficacité en termes de performances, de disponibilité et de sécurité. – Marc Caruso, architecte en chef, Syntaxe

Le marché des bases de données atteindra 1 2025 milliards de dollars d’ici 35. Au cours des deux dernières décennies, le marché des bases de données a exercé une emprise de fer, avec IBM, Oracle et SAP HANA en tête. Nous assistons désormais à un changement de garde, qui donne aux clients la possibilité de décider ce qui convient le mieux à leur entreprise. Forrester souligne même que le marché des infrastructures de cloud public augmentera de 120 % en 2021 milliards en 1. Je prédis que la capitalisation boursière des bases de données atteindra 2025 10 milliards de dollars d'ici XNUMX et que plus de sept à dix sociétés de bases de données très solides connaîtront une croissance significative au cours de la prochaine décennie. . – Raj Verma, PDG de Magasin unique

Le lac de données peut faire ce que font les entrepôts de données et bien plus encore : bien que la séparation du calcul et des données offre des avantages aux lacs de données par rapport aux entrepôts de données, les entrepôts de données ont historiquement eu d'autres avantages par rapport aux lacs de données. Mais cela est en train de changer avec les dernières innovations open source dans le domaine des données. Par exemple, Iceberg Apache est un nouveau format de table qui fournit des fonctionnalités clés d'entrepôt de données dans le lac de données, telles que la cohérence transactionnelle, les restaurations et le voyage dans le temps, tout en introduisant de nouvelles fonctionnalités permettant à plusieurs applications de travailler ensemble sur les mêmes données de manière cohérente sur le plan transactionnel. Un autre nouveau projet open source, Projet Nessie, s'appuie sur les capacités d'Iceberg ainsi que de Delta Lake en fournissant une sémantique de type Git pour les lacs de données. Nessie fait également des transactions faiblement couplées une réalité, permettant une transaction unique couvrant les opérations de plusieurs utilisateurs et moteurs, notamment Spark, Dremio, Kafka et Hive. – Tomer Shiran, co-fondateur de Drémio

Trois tendances majeures émergeront en 2021, le retour de la couche métadonnées, l'IA embarquée et l'analyse automatisée et de nouvelles interfaces de requêtes simplifiées conçues spécifiquement pour les utilisateurs professionnels. Le retour des couches de métadonnées, en tant que composants fondamentaux des solutions analytiques, est nécessaire pour soutenir une gouvernance améliorée et une extensibilité des actifs de données. Grâce aux couches de métadonnées intelligentes, de nouvelles interfaces utilisateur simplifiées apparaîtront et permettront aux utilisateurs professionnels d'interagir avec les données selon une approche plus guidée, leur permettant de réduire le temps d'obtention d'informations avec des compétences analytiques minimales. L'IA et l'analyse automatisée passeront du domaine de l'entreprise aux fournisseurs de logiciels qui intégreront ces capacités et permettront une adoption massive via leur clientèle. – Glen Rabie, PDG de Yellowfin

Ingénierie des données

Les entreprises réinvestiront dans l’ingénieur de données et les pipelines de données. L’un des impacts de 2020 a été que de nombreuses entreprises ont adopté une approche axée sur la survie, ce qui a abouti à une mentalité « à emporter » dans l’intégration de leurs données. Alors que les résultats des entreprises se stabilisent et que nous constatons plus de prévisibilité au niveau macroéconomique, nous prévoyons que 2021 sera l'année de l'ingénieur de données et que les entreprises vont revenir à une approche « construite pour durer » pour les données. canalisations. « Construit pour durer » pour l'eau de vos canalisations à la maison signifie que l'eau est toujours disponible, propre et à la bonne température. « Construit pour durer » pour les données signifie que vous créez des pipelines de données intelligents pour garantir la rapidité et la confiance dans vos analyses de données. – Ensembles de flux PDG Girish Pancha

Les entreprises se rendront compte de la nécessité de consacrer davantage d'efforts au DevOps : « Il reste encore beaucoup de travail à faire avec les pipelines DevOps, notamment la sécurisation et le test du processus de livraison. La communauté des développeurs de logiciels sait où elle doit aller, mais le travail et les obstacles sont toujours plus importants que prévu. Pour cette raison, je suis sceptique quant à la possibilité de voir de grands changements en 2021 en termes d’outils ou de modèles CI/CD. Au contraire, nous verrons davantage de personnes se rendre compte qu’elles doivent consacrer davantage d’efforts à leur pipeline, à leurs processus et à leur validation DevOps. Ils redoubleront d’efforts pour accélérer et améliorer leur automatisation CI/CD. Ce n’est que lorsque ces processus seront matures que les organisations pourront avoir confiance dans leurs pratiques et outils de livraison. – Fred Simon, co-fondateur et scientifique en chef des données, JFrog

Gouvernance des données

L’informatique insufflera de l’intelligence dans la gouvernance des accès pour protéger la cybersécurité du personnel en 2021. Les changements accélérés dans les technologies d’entreprise, les cybermenaces et le paysage des utilisateurs exercent une pression croissante sur les solutions traditionnelles de gouvernance et d’administration des identités (IGA) et, par conséquent, sur les équipes de sécurité et de conformité. Outre les risques croissants en matière de non-conformité, les environnements informatiques des entreprises deviennent chaque année plus complexes, augmentant le nombre d'applications et de systèmes auxquels les entreprises fournissent un accès aux utilisateurs. Ces défis poussent les organisations à rechercher des solutions basées sur l'IA qui simplifient et automatisent les processus de demande d'accès, d'approbation d'accès, de certification et de modélisation de rôles. En 2021, nous verrons l’IA de plus en plus utilisée pour permettre une approche autonome de l’identité.

Les solutions d'authentification et d'autorisation basées sur l'IA seront superposées ou intégrées aux solutions IGA existantes, offrant une visibilité contextuelle à l'échelle de l'entreprise en collectant et en analysant toutes les données d'identité, et permettant un aperçu des différents niveaux de risque d'accès des utilisateurs à grande échelle. L’utilisation de l’IA permettra aux systèmes d’identifier et d’alerter les équipes de sécurité et de conformité en cas d’accès à haut risque ou de violations des politiques. Au fil du temps, nous verrons ces systèmes d’IA produire des résultats explicables tout en augmentant l’automatisation de certains des défis de cybersécurité les plus difficiles au sein de l’entreprise. – Eve Maler, directrice technique chez ForgeRock

Nous avons vu la mise en œuvre mondiale de cadres de gouvernance de l’IA décoller en 2020, lorsque les entreprises demandent des détails sur les résultats des applications d’IA. Il est essentiel de garantir un niveau approprié d’explicabilité des applications d’IA, ainsi que d’utiliser des données de bonne qualité, de garantir l’auditabilité, d’être éthique, équitable et transparent, de respecter les exigences en matière de protection des données et de mettre en œuvre des mesures de cybersécurité efficaces. La mise en œuvre de cadres de gouvernance de l’IA est actuellement davantage observée dans les secteurs financier et bancaire, mais en 2021, nous verrons cela se généraliser.

D’autres secteurs verticaux tels que la santé, le commerce électronique et les services de mobilité commenceront à l’utiliser comme différenciateur concurrentiel. Par exemple, les prestataires de soins de santé commencent à être plus transparents sur la manière dont les données sont utilisées et sur la manière dont ils protègent ces données de manière éthique et équitable. Si les entreprises veulent garder une longueur d’avance, elles devraient commencer dès maintenant à développer des cadres éthiques en matière d’IA afin de se positionner en tant que leader dans ce mouvement mondial. – Mohan Mahadevan, vice-président de la recherche, Onfido

L'IA va prendre de l'ampleur dans la sécurité et la gouvernance du cloud. En 2021, l’IA ira bien au-delà de la simple détection d’anomalies et signaler ainsi les menaces potentielles aux équipes de sécurité. La gouvernance du cloud est une tâche de plus en plus complexe et atteint rapidement un point où il est impossible pour les humains de la gérer seuls. L’IA sera de plus en plus utilisée au cours de l’année à venir pour maintenir l’hygiène du cloud en rationalisant les flux de travail, en gérant les modifications et l’archivage. Une fois qu’une bonne hygiène du cloud sera établie et maintenue avec l’IA, elle sera également utilisée comme outil de connaissances prédictives stratégiques. En prédisant et en traitant les menaces et les vulnérabilités, l’IA aidera les entreprises à créer les meilleurs résultats possibles pour leurs environnements cloud. Tirer parti de l'IA en tant qu'actif stratégique permettra aux DSI de prendre des décisions éclairées concernant leurs environnements cloud, telles que l'évaluation des coûts et des risques de non-conformité. – Keith Neilson, évangéliste technique pour CloudSphere

À l’horizon 2021, nous verrons le débat sur l’IA éthique et la gouvernance des données s’appliquer à plusieurs domaines différents, tels que la recherche des contacts (lutte contre le COVID-19), les véhicules connectés et les appareils intelligents (à qui appartiennent les données ?) et les données personnelles. cyber-profils (augmentation de l’empreinte cybernétique conduisant à des questions de confidentialité). – Cindy Maike, vice-présidente des solutions industrielles, Cloudera

Gouvernance des données pour une réalité multi-environnements. L’époque où les organisations hébergeaient simplement toutes leurs propres données sur site ou même au sein d’un seul fournisseur de cloud est révolue depuis longtemps. Désormais, les organisations disposent de données sur site et travaillent en partenariat avec plusieurs fournisseurs de cloud en fonction de leurs besoins spécifiques. Cette réalité a amené à « repenser » la manière dont la gouvernance des données doit être abordée. Les organisations doivent déterminer comment leur gouvernance actuelle des données sera impactée et ce qui doit être ajusté, comment surveiller la qualité des données dans le cloud et comment gérer le mouvement des données dans et hors du cloud (et les dépenses énormes qui en découlent). – Todd Wright, responsable des solutions de gestion des données et de confidentialité des données chez SAS

L'IA va prendre de l'ampleur dans la sécurité et la gouvernance du cloud. En 2021, l’IA ira bien au-delà de la simple détection d’anomalies et signaler ainsi les menaces potentielles aux équipes de sécurité. La gouvernance du cloud est une tâche de plus en plus complexe et atteint rapidement un point où il est impossible pour les humains de la gérer seuls. L’IA sera de plus en plus utilisée au cours de l’année à venir pour maintenir l’hygiène du cloud en rationalisant les flux de travail, en gérant les modifications et l’archivage. Une fois qu’une bonne hygiène du cloud sera établie et maintenue avec l’IA, elle sera également utilisée comme outil de connaissances prédictives stratégiques. En prédisant et en traitant les menaces et les vulnérabilités, l’IA aidera les entreprises à créer les meilleurs résultats possibles pour leurs environnements cloud. Tirer parti de l'IA en tant qu'actif stratégique permettra aux DSI de prendre des décisions éclairées concernant leurs environnements cloud, telles que l'évaluation des coûts et des risques de non-conformité. – Keith Neilson, évangéliste technique pour CloudSphere

Sciences des données

L’année 2020 a été brutale pour certaines entreprises, enrichissante pour d’autres et difficile pour tous. À l’aube de 2021, les retardataires ont un impératif existentiel de se réinventer numériquement, tandis que les grandes entreprises ont du mal à suivre le rythme de la demande. Toutes ces entreprises doivent capitaliser sur une intégration de données à 100 % avec des coûts prévisibles, des performances fiables et une visibilité en temps réel. – Bonnie Holub, responsable de la pratique, science des données, Amériques à Teradata

La démocratisation des données deviendra la nouvelle norme. C’est le travail du CDO d’assurer l’expansion de la croissance dans l’ensemble de l’entreprise. Ceci peut être réalisé en fournissant des données structurées que les gens peuvent réellement utiliser. Un CDO performant doit démocratiser les données afin qu’elles soient accessibles et compréhensibles par les gens. Un bon CTO complétera le CDO en créant les outils nécessaires pour trouver les données requises. Cela signifie fournir aux utilisateurs un ensemble d'outils de visualisation et d'outils de reporting qui leur permettent d'exploiter les données pour générer des informations. À l’approche de 2021, nous continuerons de constater une collaboration plus étroite et plus étroite entre ces deux rôles, motivée par la nécessité. Si vous disposez d’outils contenant de mauvaises données, vous exacerbez le problème des données. Si vous disposez d’outils limités, seul un petit sous-ensemble peut faire quoi que ce soit avec les données. – Derek Knudsen, directeur de la technologie chez Alteryx

Les analystes citoyens perfectionneront de plus en plus leurs compétences pour devenir des data scientists. La complexité croissante de la plupart des secteurs et des entreprises signifie également qu’une fois que nous aurons atteint l’autonomie en termes de développement de processus informatiques ou d’utilisation d’analyses, il y aura rapidement une énorme poussée pour élargir davantage cet ensemble de compétences. Avec l’évolution erratique du marché d’un mois à l’autre, l’accent sera beaucoup plus mis que jamais sur la science des données. Ceci, à son tour, incitera davantage d’analystes citoyens à perfectionner leurs compétences pour devenir des data scientists. – Sharmila Mulligan, directrice de la stratégie et du marketing chez Alteryx

Les bibliothèques de visualisation de données Python seront synchronisées. Nous commençons enfin à voir les bibliothèques de visualisation de données Python fonctionner ensemble, et ce travail se poursuivra en 2021. Python dispose de très bonnes bibliothèques de visualisation depuis des années, mais il y a eu beaucoup de variété et de confusion qui rendent difficile pour les utilisateurs de choisir les outils appropriés. Les développeurs de nombreuses organisations différentes se sont efforcés d'intégrer les fonctionnalités développées par Anaconda, telles que le rendu Big Data côté serveur de Datashader et le brossage lié de HoloViews, dans une grande variété de bibliothèques de traçage, mettant ainsi plus de puissance à la disposition d'une base d'utilisateurs plus large et réduisant la duplication des efforts. Les travaux en cours contribueront davantage à cette synchronisation en 2021 et au-delà. — James A. Bednar, directeur principal, Conseil technique, Anaconda

Les compétences commerciales deviendront plus essentielles que jamais pour les data scientists. Les data scientists devront parler le langage des affaires afin de traduire les informations sur les données et la modélisation prédictive en informations exploitables ayant un impact commercial. Les propriétaires de technologies devront également simplifier l’accès à la technologie, afin que les propriétaires techniques et commerciaux puissent travailler ensemble. L’accent pour les data scientists ne sera pas seulement mis sur la rapidité avec laquelle ils peuvent créer des choses, mais aussi sur la manière dont ils peuvent collaborer avec le reste de l’entreprise. – Florian Douetteau, PDG et co-fondateur de Dataiku

Le libre-service a évolué vers l'autosuffisance : dans un monde virtuel, le libre-service doit évoluer. Lorsqu’il n’y a pas de manuels d’instructions et personne pour tenir la main de l’utilisateur, une montée en puissance rapide et intuitive devient un facteur d’hygiène pour l’adoption, et des interfaces utilisateur convaincantes ne seront plus un avantage. Mais nous avons également constaté que les utilisateurs ne souhaitent souvent pas se servir en libre-service ; ils s’attendent de plus en plus à ce que des idées leur parviennent. En conséquence, nous verrons davantage de micro-informations et d’histoires pour le consommateur augmenté. De plus, les données sont trop souvent négligées. Permettre aux utilisateurs d’accéder aux données, aux informations et à la logique métier plus tôt et de manière plus intuitive permettra de passer du libre-service de visualisation à l’autosuffisance des données. L’IA jouera un rôle majeur ici, en faisant apparaître des micro-informations et en nous aidant à passer de processus scriptés et orientés vers les personnes à une préparation et une analyse de données plus automatisées, low-code et sans code. Si davantage de personnes peuvent être autonomes en matière de données plus tôt dans la chaîne de valeur, les anomalies pourront être détectées plus tôt et les problèmes résolus plus tôt. – Dan Sommer, directeur principal, responsable de l'intelligence du marché mondial chez Qlik

Historiquement, les entreprises accordaient beaucoup de valeur aux personnes qui étaient des « Data Scientists ». À l'avenir, il sera nécessaire d'embaucher des personnes expertes en collecte de données. Pour que les modèles d’IA fonctionnent, de grandes quantités de données sont nécessaires et, de plus, les données critiques résident toujours dans des silos dans de nombreuses organisations ; par conséquent, les personnes possédant des compétences en collecte de données seront très recherchées. – Clara Angotti, présidente de Parcours suivant

Les data scientists joueront un rôle essentiel dans le développement d’un vaccin contre la COVID-19. Du développement d’un vaccin à l’analyse des essais et du déploiement, les données seront la clé pour savoir si nous avons trouvé une solution préventive. Les data scientists seront aussi importants que les scientifiques de formation traditionnelle dans la production du premier vaccin viable. Pour accélérer le développement de vaccins, les gens doivent être capables de gérer, de prendre des décisions et de faire confiance à ces données. Sachant que la rapidité est essentielle, l’agilité des données est nécessaire et de nouveaux systèmes automatisés permettront de nouvelles innovations, menant finalement à un vaccin. Accélérer la livraison du vaccin nécessitera une grande agilité et une grande automatisation dans la gestion des données. – Buno Pati, PDG d’Infoworks.

Alors que les données continuent de dominer le monde, les organisations ont toujours du mal à exploiter ces données pour obtenir un véritable avantage concurrentiel. Le Citizen Data Science Movement a vu le jour pour promouvoir largement la capacité à manipuler et à interpréter les données. Mais existe-t-il une meilleure solution ? Ne serait-il pas plus intelligent (et plus facile) de simplement donner une signification commerciale aux données et de les réparer plutôt que de réparer les personnes, étant donné que les données brutes non interprétées situées quelque part dans un système ne sont pas très utiles. – Kendall Clark, fondateur et PDG du développeur Enterprise Knowledge Graph Platform, Chien vedette

Nous assisterons à une augmentation de l'architecture pour la science des données : la maîtrise de la gestion des données sera une priorité pour de nombreux groupes informatiques alors qu'ils cherchent à améliorer la business intelligence et l'agilité. C’est pour cette raison que la science des données – le cadre sous lequel prospèrent l’intelligence artificielle, l’apprentissage automatique, l’automatisation, les lacs de données et autres – connaîtra une croissance énorme en 2021. De l’analyse des comportements basés sur les données pour transformer les courses à l’exploitation de l’informatique puissante dans le cloud pour Pour améliorer les modèles de production médiatique, la science des données prendra la tête pour que beaucoup restent compétitifs. Trop coûteux à fournir par elles-mêmes, nombre de ces entreprises sous-traitent leurs projets de science des données à des tiers avec un modèle d'abonnement. — Dustin Milberg, Field CTO Cloud Services chez Intervision

Automatisez vos pipelines pour libérer tout le potentiel des data scientists : les data scientists sont trop souvent occupés par des tâches telles que la préparation des données, l'ingénierie des fonctionnalités et la modélisation. À mesure que ces tâches seront complétées par des outils permettant d’automatiser ces étapes, nous verrons les data scientists troquer leurs tâches de routine contre du temps consacré à des approches stratégiques plus approfondies qui en feront des ressources inestimables. Nous nous attendons à voir des mises en œuvre plus systématiques de solutions d’IA d’entreprise pour rendre les analyses ad hoc reproductibles plus efficacement. – Justin Silver, Ph.D. un stratège en IA chez AVANTAGES

L'apprentissage en profondeur

L’adoption de solutions d’entreprise basées sur le Deep Learning dans les startups et les entreprises connaîtra une augmentation progressive. Le principal obstacle restera le coût d'acquisition des instances GPU et le coût élevé des ressources humaines. – Sundeep Reddy Mallu, responsable de l'analyse chez Gramener

Comme nous l'avons tous constaté ces dernières années, la recherche et le développement dans le domaine du traitement du langage naturel ont progressé rapidement grâce aux percées dans les modèles de langage Transformer tels que BERT, GPT-3, etc. Bien qu'ils atteignent des performances de pointe, ils nécessitent de grands ensembles de données. et de grandes quantités de ressources informatiques pour la formation et l'inférence avec une empreinte carbone importante. Nous verrons davantage d'efforts et de recherches émerger avec de nouvelles architectures de modèles et techniques de formation pour répondre aux problèmes d'émissions de carbone, des temps de formation très longs, avec des modèles spatiaux et informatiques efficaces pour rendre ces avancées plus accessibles ; des modèles récents comme Performers with Fast Attention serviront de catalyseurs pour aller dans cette direction. – Kavan Shukla, scientifique des données, IA finlandais

Matériel

Le matériel et les logiciels convergent avec la montée en puissance du matériel spécifique à l'IA. Comme l’a montré l’annonce par Apple de la puce M1, le matériel spécialement conçu devient de plus en plus courant, ce qui signifie que les gens commenceront à réfléchir davantage au matériel sur lequel ils travaillent qu’auparavant, y compris aux scientifiques des données. L'augmentation du matériel spécifique au ML entraînera probablement des améliorations des performances, mais fournira également une autre variable dans le déploiement du modèle. Cela aura un impact particulièrement important dans les environnements cloud et mobiles. Cela permettra de briser davantage le mur qui existait traditionnellement entre le matériel et les logiciels, les cas d’utilisation de l’IA étant en tête. — Kevin Goldsmith, directeur technique, Anaconda

Depuis 2012, la puissance de calcul de l’IA a augmenté 5 fois plus vite que la loi de Moore, doublant environ tous les 3.5 mois. Étant donné le nombre croissant d'applications construites sur les moteurs d'IA qui ont un impact sur notre vie quotidienne – certaines sont même essentielles à l'humanité dans son ensemble (par exemple, la modélisation et la résolution du changement climatique), trouver une solution à cette inadéquation en matière d'échelle de performances est une priorité pour tous les acteurs sérieux sans usine et liste des priorités de l'entreprise de fabrication de puces. La nécessité de changer la façon dont la loi de Moore est perçue deviendra plus évidente en 2021. La dernière tendance a été de parler de l'écriture de logiciels plus efficaces pour générer des améliorations de performances d'une année sur l'autre. Il s’agit d’un pari risqué, car le développement d’algorithmes fondamentalement nouveaux ne peut pas se faire selon un calendrier et n’est donc pas compatible avec le calendrier traditionnel d’avancement des semi-conducteurs. Les technologies informatiques sous-jacentes doivent également s’améliorer. Nous continuerons de constater des changements et des améliorations au cours de l’année à venir. – Nick Harris, PDG et co-fondateur de Matière lumineuse

Informatique en mémoire

En 2021, accélérées par la COVID-19 et des réglementations plus strictes, les entreprises continueront de mener leurs initiatives de transformation des données pour prospérer dans l’économie numérique en ligne en plein essor. La vitesse extrême, l'agilité du cloud et l'analyse opérationnelle seront adoptées par les entreprises pour optimiser les opérations basées sur les données et introduire rapidement de nouveaux services et applications.

Les solutions technologiques basées sur une structure de données cloud native, également connue sous le nom de Digital Integration Hub, permettront aux organisations de se décharger et de se découpler des systèmes d'enregistrement et des bases de données existants pour répondre à leurs besoins numériques et analytiques et de pouvoir migrer vers le cloud sans doivent se désengager complètement de leurs systèmes critiques existants. L'introduction de la vitesse et de l'évolutivité en mémoire pour l'analyse et la BI alimentera le reporting et la visualisation en temps réel de nouvelles données et permettra aux modèles de ML d'utiliser des données en temps réel plus précises pour les services en ligne tels que l'approbation des prêts, l'analyse des fraudes et l'analyse des clients. Capacités à 360°. L'AIOps sera également au centre des préoccupations et sera déployé pour automatiser et rationaliser les opérations complexes de données et d'analyse, réduire les délais de mise sur le marché et les coûts tout en minimisant les erreurs humaines. – Adi Paz – PDG – GigaEspaces 

En 2020, la pandémie de COVID-19 a poussé de nombreuses entreprises, en particulier celles des secteurs de la livraison de nourriture, du commerce électronique, de la logistique et des services d'accès et de collaboration à distance, à considérablement étendre et mettre à niveau leur infrastructure afin de maintenir des performances applicatives élevées face à l'augmentation du nombre de visiteurs sur leurs sites Web. demandes de livraison, transactions de vente, streaming vidéo et bien plus encore. Beaucoup de ces entreprises ont constaté que l'approche la plus rapide pour maintenir ou améliorer les performances tout en augmentant simultanément le débit des applications consistait à déployer une grille de données distribuée en mémoire (IMDG) – construite à l'aide d'une plate-forme informatique en mémoire telle qu'Apache Ignite – qui peut être insérée entre une application existante et une base de données sur disque sans modifications majeures. L'IMDG améliore les performances en mettant en cache les données d'application dans la RAM et en appliquant un traitement massivement parallèle (MPP) sur un cluster distribué de nœuds de serveur. Il fournit également un moyen simple d'augmenter la capacité, car l'architecture distribuée permet d'augmenter la puissance de calcul et la RAM du cluster simplement en ajoutant de nouveaux nœuds.

 En 2021, les plateformes IMC deviendront plus faciles à utiliser et le nombre de praticiens IMC compétents continuera de croître rapidement. Cela permettra à l’adoption de l’IMC de s’étendre à davantage de secteurs et à un plus grand nombre d’entreprises. En conséquence, davantage d’entreprises seront mieux placées pour tirer parti de l’IMC pour une accélération rapide des applications, non seulement pour répondre aux exigences du COVID, mais également pour répondre aux nouvelles demandes stratégiques et concurrentielles à mesure que la menace de pandémie s’atténue. – Nikita Ivanov, CTO et fondateur de GridGain Système

IdO

L’adoption de l’IoT dans les entreprises va s’intensifier plus que jamais : à la lumière des impacts de la pandémie sur les entreprises, les entreprises rechercheront des moyens nouveaux ou supplémentaires pour accélérer la prise de décision en 2021. L’IoT peut jouer un rôle à cet égard. Du point de vue de la BI, le défi consiste à reconnaître que l'IoT comporte différents modèles de données qui doivent être pris en compte, comme les performances dans le temps. La réduction du délai entre la production des données et les opérations sera essentielle. Les organisations les plus intelligentes se rendront compte qu’elles ne peuvent pas simplement dépenser de l’argent dans ce domaine, mais qu’elles doivent plutôt faire preuve de stratégie pour créer de nouveaux modèles de données partageant des informations réfléchies. – Eric Raab, vice-président directeur, ingénierie et produit, Constructeurs d'informations

La pandémie a considérablement accéléré la nécessité pour les entreprises de compléter leurs transformations vers l’Industrie 4.0 avec des solutions qui leur permettent d’avoir plus de flexibilité, de visibilité et d’efficacité dans leurs opérations. Nous assisterons à une accélération de l’adoption de solutions qui contribuent à répondre à ce besoin, allant de l’IA à l’apprentissage automatique, à la vision industrielle et à l’analyse avancée. À mesure que l'économie rebondit, nous continuerons à investir dans l'infrastructure OT de base avec davantage de capacités informatiques pour permettre au vaste écosystème d'acteurs de déployer ces solutions et nous verrons l'adoption de l'Industrie 4.0 s'accélérer considérablement en 2021. – Christine Boles, vice-présidente , IoT Group et GM, Division Solutions Industrielles, Intel

Explosion de l'informatique de pointe : nous continuerons de constater une augmentation de l'informatique de pointe dans l'ensemble du secteur des centres de données en raison de l'augmentation des demandes de calcul et de vitesse de la part des consommateurs et des entreprises. Un réseau à faible latence est essentiel dans les environnements qui s'efforcent d'optimiser le débit de calcul et de réduire les temps d'inactivité des serveurs. – Timothy Vang, Ph.D., vice-président du marketing et des applications pour Semtech's Groupe de produits d’intégrité du signal

Edge est le nouveau cloud : pour les entreprises qui mettent à l'échelle leurs initiatives d'usines intelligentes en 2021, la disponibilité en temps réel des charges de travail critiques sera nécessaire pour garantir les résultats commerciaux. L'Edge Computing complétera l'infrastructure cloud existante en permettant le traitement des données en temps réel là où le travail a lieu (par exemple, moteurs, pompes, générateurs ou autres capteurs). La mise en œuvre d'analyses intégrées de la périphérie au cloud aidera ces entreprises à maximiser la valeur de leurs investissements dans les systèmes numériques.

Le secteur continuera d’évoluer vers des environnements informatiques plus décentralisés, et la périphérie ajoutera une valeur significative aux initiatives de transformation numérique. En intégrant des fonctionnalités de pointe à l'infrastructure cloud existante, les organisations se soucieront moins des considérations informatiques logistiques et se concentreront plutôt sur la refonte de ce qui est possible dans une machine intelligente : à quelles questions peut-elle répondre plus rapidement ? Quels nouveaux problèmes peut-il résoudre ? Comment peut-il mieux protéger les opérations ? Les analystes notent que d’ici 2022, 99% des entreprises industrielles utiliseront l’edge computing pour cette raison. – Keith Higgins, vice-président de la transformation numérique pour Rockwell Automation

Les esprits créatifs font avancer l'IoT : l'IoT et le développement de produits intelligents dépendront de conceptions créatives et de solutions réfléchies, alors que les améliorations techniques des microprocesseurs ralentissent en raison des ingénieurs confrontés aux limites de ce qui est physiquement possible, les fabricants de puces étant proches de la limite théorique de la finesse de ces appareils. être. Le développement de produits selon la loi de Moore s’appuiera sur l’ingéniosité des ingénieurs et des concepteurs pour créer des solutions imaginatives permettant de résoudre les problèmes des entreprises et de la société et d’améliorer les processus de consommation quotidiens, au lieu de simplement s’appuyer sur la prochaine génération de chipsets puissants. – Sam Mahalingam, directeur technique, Altair

Machine Learning

Les investissements dans les opérations informatiques passeront de l’automatisation des flux de travail classiques aux solutions natives d’IA/ML avec la volonté de devenir des opérations numériques. Les opérations de workflow et leur automatisation respective évolueront naturellement pour inclure des solutions IA/ML à mesure que la technologie deviendra plus puissante. L’IA et le ML progressent et améliorent à leur tour l’automatisation des flux de travail à mesure que les entreprises collectent davantage de données et modifient leur organisation et leurs opérations administratives. – Shiva Ramani, PDG de iOPEX

Les entreprises trouveront de nouvelles applications pour les technologies d'apprentissage automatique qui automatisent les processus manuels et améliorent les capacités de surveillance. Les entreprises rechercheront des produits offrant une surveillance plus approfondie, davantage d'automatisation et des informations à valeur ajoutée pour l'ensemble de leurs dépenses informatiques. Par exemple, les solutions de disponibilité qui assurent une surveillance adaptée aux applications et l'automatisation des tâches de configuration et de gestion auraient la priorité sur les solutions de basculement traditionnelles. De nouvelles innovations en matière de haute disponibilité apparaîtront pour gérer la complexité croissante des pannes et des catastrophes provoquées par les appareils IoT et leurs dépendances. – Cassius Rhue, vice-président, Expérience client, Technologie SIOS

Historiquement, les algorithmes concernaient davantage l’apprentissage automatique et les réseaux de neurones. Nous voyons désormais de plus en plus de machines autonomes capables d’enseigner et de s’entraîner d’une manière remarquablement similaire à la partie subconsciente du cerveau humain. En d’autres termes, des algorithmes sont utilisés pour imiter la partie analytique du cerveau ; ils imitent désormais la partie la plus grande, la plus puissante et la plus intrigante du cerveau humain, que nous appelons le bon sens, l’instinct et l’intuition. Au lieu de compter sur des êtres humains pour les former et les enseigner, les algorithmes des machines non supervisées d’aujourd’hui sont capables de collecter d’énormes quantités de données, de créer des images du monde et de faire des déductions très similaires à celles qui seraient faites par des êtres humains. Nous entrons dans un monde où les ordinateurs peuvent s’entraîner eux-mêmes. – Mark Gazit, PDG de ThetaRay

Réduire les préjugés : cette année, de nombreuses discussions nécessaires ont eu lieu sur les biais et l'atténuation des algorithmes d'IA et sur la manière de répondre aux impacts sociétaux de la personnalisation basée sur les algorithmes. Cependant, nous devons continuer à développer des outils qui fournissent un aperçu des résultats des systèmes de ML, révèlent les biais et vérifient la dérive des modèles déployés au fil du temps. Cela devient de plus en plus critique à mesure que de plus en plus de ces systèmes sont mis en production, afin de garantir que nous ne perpétuons pas ou ne créons pas de sources de préjugés préjudiciables. — Kevin Goldsmith, directeur technique, Anaconda

Les entreprises trouveront de nouvelles applications pour les technologies d'apprentissage automatique qui automatisent les processus manuels et améliorent les capacités de surveillance. Les entreprises rechercheront des produits offrant une surveillance plus approfondie, davantage d'automatisation et des informations à valeur ajoutée pour l'ensemble de leurs dépenses informatiques. Par exemple, les solutions de disponibilité qui assurent une surveillance adaptée aux applications et l'automatisation des tâches de configuration et de gestion auraient la priorité sur les solutions de basculement traditionnelles. De nouvelles innovations en matière de haute disponibilité apparaîtront pour gérer la complexité croissante des pannes et des catastrophes provoquées par les appareils IoT et leurs dépendances. – Cassius Rhue, vice-président, Expérience client, Technologie SIOS

Les organisations dont les premiers succès en matière d’apprentissage automatique les ont incitées à étendre leurs programmes découvrent qu’une chaîne de production rapide d’ensembles de données de haute qualité est le moteur de cette expansion. Cela élèvera les données en tant que service au rang de priorité élevée pour les équipes d'ingénierie de données. – Luke Han, co-fondateur et PDG, Kyligence

La capacité à faire confiance et à opérationnaliser le ML sera le test décisif pour la survie en 2021 : en plus d’une pandémie et d’une récession, nous continuons à lutter contre des quantités de données en croissance exponentielle et avec la complexité toujours croissante des nouvelles technologies. Si les entreprises veulent réussir à donner un sens à leurs grandes quantités de données et à leurs complexités techniques, elles doivent exploiter et opérationnaliser les modèles d’apprentissage automatique de manière explicable et facile à comprendre. Il ne suffit plus de se concentrer sur la mise en production des modèles, il faut désormais se concentrer sur la mise des modèles entre les mains des utilisateurs professionnels et des décideurs. Mais pour être opérationnel, les entreprises doivent être capables de faire confiance, d’en tirer une compréhension et de communiquer sur la capacité d’un modèle à avoir un impact significatif sur son potentiel commercial. En 2021, la capacité d’une entreprise à faire confiance à son modèle – dans la mesure où elle est capable de produire des actions à partir des informations dérivées de l’IA – sera déterminante pour sa capacité à survivre. – Santiago Giraldo, responsable marketing produit principal de l'apprentissage automatique, Cloudera

Les entreprises de toutes tailles et à tous les stades s’orientent de manière agressive vers la mise en œuvre opérationnelle des efforts d’apprentissage automatique. Il existe plusieurs frameworks populaires pour la formation de modèles, notamment Tensorflow et PyTorch, en tête du jeu. Tout comme Apache Spark est considéré comme un leader pour les tâches de transformation de données et Presto émerge comme la technologie leader pour les requêtes interactives, 2021 sera l'année où nous verrons un leader dominer l'espace plus large de formation de modèles avec pyTorch ou Tensorflow comme principaux concurrents. – Haoyuan Li, fondateur et PDG, Alluxio

Les données de modification SaaS sont la pièce manquante du ML/AI : les organisations qui se concentrent sur l'intelligence artificielle et l'apprentissage automatique continueront à avoir soif d'ensembles de données de formation significatifs qui peuvent être introduits dans leurs algorithmes de ML pour repérer les modèles de changement de cause à effet au fil du temps. Pour ce faire, ils se tourneront vers leurs ensembles de données en constante évolution dans des applications cloud/SaaS tierces comme entrées dans ces algorithmes. Cela créera une pression pour qu'ils capturent et ingèrent chaque modification de ces données au fil du temps dans leur écosystème DataOps. – Joe Gaska, PDG de GRAX

Le rôle joué par l’IA et le ML s’étendra à mesure que l’intelligence identitaire passera au premier plan. Alors que nous atteignons un tournant dans l’avenir de l’authentification, les utilisateurs sont de plus en plus conscients de la sécurité lorsqu’il s’agit de protéger leur identité numérique en ligne. La vérification de l’identité deviendra de plus en plus contextuelle et l’IA jouera un rôle croissant pour déterminer le risque dynamique d’accès qu’un système basé sur des règles ne peut tout simplement pas fournir. L'apprentissage profond supervisé et non supervisé, l'apprentissage par renforcement et les algorithmes génétiques appliqueront non seulement des modèles d'inférence prédéfinis, mais permettront également aux solutions de sécurité de s'adapter à l'évolution du comportement des entreprises et d'apprendre des autres entreprises lorsqu'elles rencontrent et atténuent les menaces. Combattre les deep fakes grâce à des algorithmes intégrés, tirer de la valeur du Big Data et piloter la prise de décision grâce à des analyses puissantes jouera un rôle clé dans le renseignement sur l’identité. – Rajesh Ganesan, vice-président, ManageEngine (division de Zoho Corp.)

Robotique

Avec la nécessité d’éloigner les gens des lieux proches qui se perpétue jusqu’à la nouvelle année, nous verrons naturellement des investissements importants dans l’automatisation. Cependant, pour la première fois peut-être, la robotique se chargera de tâches humaines simples et banales, par opposition aux tâches plus difficiles et stratégiques. Nous avons vu des robots aider les humains dans de nombreuses applications complexes, comme des robots formés pour effectuer les microchirurgies les plus précises. Les robots vont désormais commencer à assumer des tâches qui permettront aux travailleurs essentiels qui devaient auparavant être en personne de travailler à distance. Avec davantage d’investissements dans la réalité augmentée et virtuelle, par exemple, nous verrons des gardes de sécurité robotisés contrôlés par des travailleurs à distance errant dans les bureaux et les usines ; les travailleurs à distance pourront contrôler des drones à distance pour prélever et emballer des cartons dans un entrepôt. En 2021, la révolution sera robotisée. – Ahson Ahmad, directeur produit et client, Ripcord

Sécurité

Deles epfakes deviendront une menace importante pour l’intégrité des entreprises. La COVID-19 a contraint les communications en personne à devenir virtuelles, ce qui signifie que les entreprises comptent plus que jamais sur la vidéoconférence pour organiser leurs réunions. Même si la notion de deepfakes n’est peut-être pas nouvelle, elles deviennent de plus en plus sophistiquées et remarquablement faciles à générer. Prenez ThisPersonDoesNotExist.com, par exemple, qui exploite l’IA pour créer des images totalement crédibles de personnes qui n’existent pas dans la vraie vie. Si ce processus peut être mené avec relativement peu d’informations, alors les pirates peuvent certainement exploiter les profils professionnels utilisés pour la technologie de vidéoconférence – auxquels sont automatiquement associés les noms et les photos des employés – pour créer des contrefaçons convaincantes. – James Carder, chef de la sécurité de LogRhythm

Prédiction : à mesure que la détection de la fraude devient plus difficile, les modèles de fraude par ML se renforceront mais utiliseront des ensembles de données plus récents : pour déterminer le risque de fraude, les entreprises utilisent généralement un ensemble de données de transactions passées qui, selon elles, seront représentatives de l'avenir pour former leur apprentissage automatique (ML). des modèles. Cependant, l’énorme impact du COVID-19 sur les données et le comportement des consommateurs a créé un décalage, car les données passées ne sont plus représentatives de l’avenir. Cela a conduit de nombreuses organisations soit à utiliser des modèles sous-adaptés qui fonctionnent bien mais ne détectent pas les nouveaux modèles de fraude, soit à des modèles surajustés qui créent de nombreuses surprises telles que des files d'attente d'examen manuel inondées ou davantage de rétrofacturations et de fraudes. De nombreuses entreprises ont également abandonné l’utilisation du ML au profit de modèles basés sur des règles et d’évaluations manuelles qui s’appuient davantage sur l’intuition humaine. En 2021, les entreprises pourront tirer parti de leur compréhension de ces nouveaux modèles comportementaux pour recommencer à créer des modèles de ML plus solides. Cependant, pour réussir, ils devront utiliser des données plus récentes, prendre les choses comme elles viennent lors de la construction de modèles et évaluer leurs progrès au fur et à mesure. – Arjun Kakkar, vice-président de la stratégie et des opérations chez Découper

L’intelligence artificielle a créé de nouvelles menaces pour la sécurité, dont la plus importante pourrait être la contrefaçon. Les deepfakes sont de faux fichiers audio, vidéo ou images qui s'appuient sur la technologie de l'intelligence artificielle pour imiter la réalité. Les deepfakes peuvent avoir de graves conséquences lorsqu’ils tombent entre de mauvaises mains, comme la fraude par deepfake. Même si nous n’avons pas encore assisté à beaucoup de ces attaques, 2019, les fraudeurs ont utilisé de l'audio deepfake pour voler plus de 200,000 2021 $ à une société énergétique basée au Royaume-Uni. Et comme les environnements de travail à distance donnent aux fraudeurs plus de munitions pour mener leurs attaques, XNUMX sera l’année où la technologie libérera la transcription audio en temps réel et les entreprises devront rester vigilantes pour s’assurer de ne pas se faire escroquer. Les entreprises doivent se méfier de tout appel téléphonique suspect et ne jamais envoyer d’argent ni partager d’informations sensibles sans vérifier que l’appelant est bien celui qu’elles prétendent être.

De plus, la mise en place d’outils et de protocoles de cybersécurité de base peut empêcher les fraudeurs d’accéder aux informations sensibles dont ils ont besoin pour créer des images et des fichiers audio truqués. Les chercheurs en cybersécurité travaillent sur des outils permettant de détecter les contenus deepfakes, mais d’ici là, les entreprises devront s’appuyer sur leur intuition et les outils de cybersécurité existants pour s’assurer de ne pas se laisser tromper. – Terry Nelms, PhD, directeur principal de la recherche, Pindrop

Alimentée par l'afflux de violations de données et l'exploitation perçue des données personnelles par les grandes technologies, la confidentialité des données des consommateurs continuera d'être une priorité en 2021 et au-delà, et nous pouvons nous attendre à voir davantage de législations introduites pour protéger les droits des consommateurs et infliger des amendes aux entreprises. l’utilisation irresponsable des données. Pour cultiver la confiance et améliorer l’expérience client dans un paysage commercial de plus en plus concurrentiel, de plus en plus d’organisations donneront aux consommateurs la propriété et le contrôle de leurs données personnelles dans les années à venir. En combinant des principes éthiques, conformes et respectueux de la vie privée avec une infrastructure technologique conçue pour évoluer pour l'avenir, la société évoluera vers un système où la valeur des données profitera à la fois aux individus et aux entreprises. – James Kingston, vice-président des partenariats de recherche et d'innovation chez Dataswift, chercheur en IA et directeur du HAT-LAB.

La gouvernance de la sécurité des données est un élément essentiel et nécessaire à l’atténuation des menaces. Jusqu’à récemment, la plupart des programmes de gouvernance des données se concentraient sur les flux de données et l’analyse, sans trop penser à la sécurité. Les nouvelles lois et réglementations sur la confidentialité des données ont contraint les acteurs des données tels que le CDO, le CFO, le RSSI et le DPO à faire de la sécurité des données l'un des éléments constitutifs nécessaires de leurs efforts de gouvernance des données. Mais la gouvernance de la sécurité des données est complexe, car aucun produit de fournisseur unique ne peut mettre en œuvre tous les contrôles de gouvernance de la sécurité des données requis. En 2021, alors que les entreprises continuent de collecter et de traiter de plus en plus de données, elles devront trouver un moyen d'unifier rapidement leurs informations, afin que l'ensemble de leur organisation tire ses informations de la même manière, de manière fiable et sécurisée. Ensuite, les entreprises doivent mettre en œuvre et gérer leur source de données via un système de protection des données avec les contrôles de confidentialité nécessaires en place, afin d'atténuer les menaces sur les données. Ces étapes garantiront que les risques commerciaux et financiers futurs seront minimisés. – Anne Hardy, RSSI de Talend

L’IA sera la clé du renforcement de la sécurité dans un monde éloigné. La sécurité est une priorité pour les dirigeants de toute organisation qui s’est lancée dans un parcours de transformation numérique, mais son importance n’a fait que s’accélérer avec la pandémie. Avec autant de terminaux dispersés à travers le monde et autant de possibilités pour les employés de travailler à distance où qu’ils le souhaitent, les vulnérabilités se multiplient. Une tendance majeure que nous observerons en 2021 et au-delà est l’application de l’IA aux mesures de sécurité, car les humains ne peuvent à eux seuls surveiller, contrôler et vérifier chaque point final pour protéger de manière adéquate ou efficace une entreprise moderne. Si les responsables de la sécurité (en particulier ceux des entreprises Fortune 500) ne consacrent pas dès maintenant le temps et les investissements financiers nécessaires pour améliorer la sécurité grâce à l’IA, ils peuvent s’attendre à être la cible de pirates informatiques à l’avenir et à se démener pour protéger leurs données. -Scott Boettcher, vice-président, gestion des informations d'entreprise, NTT DATA Services

Stockage

L’ancien NAS est mort pour l’IA. Avec l'introduction du PCIe Gen4, les débits d'E/S sont désormais totalement en rupture avec les évolutions des cœurs CPU. Les anciens fournisseurs NFS sont limités à un protocole TCP à flux unique dont le débit est limité par la capacité d'un seul cœur de processeur sur le serveur d'applications. PCIe Gen4 doublera les performances d'E/S maximales des applications en 2021, tandis qu'un cœur de processeur ne pourra plus doubler également les performances d'E/S monocœur. Il n’y a pas de plus grande concentration d’E/S sur un hôte unique que sur le marché de l’IA – pour des applications telles que l’apprentissage automatique et l’apprentissage profond. Pour résoudre ce problème, les clients rechercheront des solutions prenant en charge le multithreading, le RDMA et la possibilité de contourner complètement les processeurs, comme c'est le cas avec le stockage GPUDirect de NVIDIA. Les exigences visant à maintenir les GPU et les processeurs IA alimentés et efficaces dépasseront considérablement les capacités d'E/S des anciens NAS basés sur TCP, ce qui amènera les clients à abandonner complètement les anciens NAS en 2021. – Renen Hallak, fondateur et PDG de VAST Data

Le stockage objet brise le mythe selon lequel il n’est utilisé qu’à des fins d’archivage. Bien que le stockage objet soit surtout connu comme solution de stockage de sauvegarde et d’archivage, trois tendances vont élargir cette perception en 2021. Premièrement, le stockage objet basé sur Flash gagnera en popularité dans les charges de travail d’analyse de données qui ont également des exigences de capacité élevées. Deuxièmement, le stockage compatible S3 simplifiera les déploiements Kubernetes, ce qui en fera un choix logique pour les applications modernes. Troisièmement, les applications cloud natives seront de plus en plus déployées sur site, ce qui nécessitera un stockage sur site compatible S3 pour améliorer la portabilité des applications. En conséquence, de plus en plus d’organisations utiliseront le stockage objet pour prendre en charge des cas d’utilisation gourmands en calcul, tels que l’IA, le ML et l’analyse de données, brisant une fois pour toutes le mythe du « bon marché et profond ». – Jon Toor, directeur marketing de Cloudian

Les organisations collectent désormais d'énormes quantités de données de machine learning et d'IoT. Si votre entreprise dépend de la collecte et de l’analyse de données pour fonctionner et réussir, que se passe-t-il si ces données ne sont pas entièrement sauvegardées et facilement récupérables ? La plupart des entreprises pensent principalement à l’analyse des données et beaucoup moins à la sauvegarde ou à la sécurité des données. Mais à mesure que les données passent de plus en plus des environnements d’analyse aux environnements de production, la protection devient cruciale. Les outils de stockage de pointe s'appuient de plus en plus sur l'IA et l'apprentissage automatique pour automatiser le processus de sauvegarde des données. Compte tenu de la taille croissante des données d'entreprise, ces outils intelligents deviendront essentiels pour maintenir un processus de sauvegarde efficace, capable de réagir rapidement et sans effort à l'évolution des exigences tout en économisant des heures incalculables sur les sauvegardes manuelles. – Shridar Subramanian, directeur marketing de Stockage

Verticales

Le potentiel de l’IA pour améliorer les processus de la chaîne d’approvisionnement est un domaine d’intérêt pour les entreprises depuis au moins 5 ans, mais après les perturbations causées par le COVID-19, de nombreux analystes de la chaîne d’approvisionnement et entreprises ont tourné leur attention vers l’IA comme solution possible pour améliorer les processus de la chaîne d’approvisionnement. leurs malheurs. 67% des entreprises ont investi dans une solution technologique pour les aider à surmonter la pandémie, et 60% des entreprises industrielles se tournent spécifiquement vers l’IA. Cependant, les modèles d’IA sont alimentés par les données. La précision, la portée et les capacités d'un modèle d'IA dépendent entièrement des données de formation qui le sous-tendent. Cependant, ces données doivent être organisées et étiquetées dans un format lisible par machine avant qu’un programme d’IA puisse les digérer. Avant d'adopter l'IA, les entreprises doivent tirer parti d'une technologie d'intégration moderne pour compiler automatiquement les données issues des interactions avec leur écosystème de fournisseurs, partenaires, commerçants et clients dans un format structuré pour alimenter les modèles d'IA.

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source : https://www.fintechnews.org/big-data-industry-predictions-for-2021/

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?