Suivez nous sur

AI

Déploiement de modèle multicompte avec Amazon SageMaker Pipelines

Avatar

En cliquant sur ce bouton,

on

Pipelines Amazon SageMaker est le premier spécialement conçu CI/CD service pour l'apprentissage automatique (ML). Il vous aide à créer, automatiser, gérer et mettre à l'échelle des flux de travail ML de bout en bout et appliquer les meilleures pratiques DevOps de CI / CD à ML (également appelées MLOps).

Créer plusieurs comptes pour organiser toutes les ressources de votre organisation est un bonne pratique DevOps. Une stratégie multicompte est importante non seulement pour améliorer la gouvernance, mais également pour accroître la sécurité et le contrôle des ressources qui soutiennent les activités de votre organisation. Cette stratégie permet à de nombreuses équipes différentes au sein de votre organisation d'expérimenter, d'innover et de s'intégrer plus rapidement, tout en gardant l'environnement de production sûr et disponible pour vos clients.

Pipelines facilite l'application de la même stratégie au déploiement de modèles ML. Imaginez un cas d'utilisation dans lequel vous disposez de trois comptes AWS différents, un pour chaque environnement: la science des données, la préparation et la production. Le data scientist a la liberté de mener des expériences et de former et d'optimiser différents modèles à tout moment pour son propre compte. Lorsqu'un modèle est suffisamment performant pour être déployé en production, le data scientist doit simplement basculer le statut d'approbation du modèle sur Approved. Après cela, un processus automatisé déploie le modèle sur le compte intermédiaire. Ici, vous pouvez automatiser les tests du modèle avec des tests unitaires ou des tests d'intégration ou tester le modèle manuellement. Après une approbation manuelle ou automatisée, le modèle est déployé sur le compte de production, qui est un environnement contrôlé plus étroitement utilisé pour servir des inférences sur des données réelles. Avec Pipelines, vous pouvez implémenter un environnement multi-comptes prêt à l'emploi.

Dans cet article, vous apprendrez à utiliser Pipelines pour implémenter votre propre pipeline ML multi-comptes. Tout d'abord, vous apprenez à configurer votre environnement et à le préparer à utiliser un modèle prédéfini comme Projet SageMaker pour la formation et le déploiement d'un modèle dans deux comptes différents: la mise en scène et la production. Ensuite, vous voyez en détail comment ce modèle personnalisé a été créé et comment créer et personnaliser des modèles pour vos propres projets SageMaker.

Préparer l'environnement

Dans cette section, vous configurez trois comptes AWS différents et utilisez Studio SageMaker pour créer un projet qui intègre un pipeline CI / CD avec le pipeline ML créé par un data scientist. Le diagramme suivant montre l'architecture de référence de l'environnement créé par le projet personnalisé SageMaker et comment Organisations AWS intègre les différents comptes.

Le diagramme suivant montre l'architecture de référence de l'environnement créé par le projet personnalisé SageMaker et comment AWS Organizations intègre les différents comptes.

Le diagramme contient trois comptes différents, gérés par des organisations. En outre, trois rôles d'utilisateur différents (qui peuvent être la même personne) exploitent cet environnement:

  • Ingénieur ML - Responsable du provisionnement du projet SageMaker Studio qui crée le pipeline CI / CD, le registre de modèles et d'autres ressources
  • Data Scientist - Responsable de la création du pipeline ML qui se termine par un modèle entraîné enregistré dans le groupe de modèles (également appelé groupe de packages de modèles)
  • Approbateur - Responsable de tester le modèle déployé sur le compte intermédiaire et d'approuver le déploiement de production

Il est possible d'exécuter une solution similaire sans organisations, si vous préférez (bien que non recommandé). Mais vous devez préparer manuellement les autorisations et la relation d'approbation entre vos comptes et modifier le modèle pour supprimer la dépendance Organisations. De plus, si vous êtes une entreprise avec plusieurs comptes et équipes AWS, il est fortement recommandé d'utiliser Tour de contrôle AWS pour l'approvisionnement des comptes et des organisations. AWS Control Tower offre le moyen le plus simple de configurer et de gérer un nouvel environnement AWS multicompte sécurisé. Pour cet article, nous ne discutons de la mise en œuvre de la solution qu'avec les organisations.

Mais avant de continuer, vous devez suivre les étapes suivantes, qui sont détaillées dans les sections suivantes:

  1. Créez un compte AWS à utiliser par les data scientists (compte data science).
  2. Créer et configurer un Domaine SageMaker Studio dans le compte Data Science.
  3. Créez deux comptes supplémentaires pour la production et la préparation.
  4. Créez une structure organisationnelle à l'aide d'organisations, puis invitez et intégrez les comptes supplémentaires.
  5. Configurez les autorisations requises pour exécuter les pipelines et déployer des modèles sur des comptes externes.
  6. Importez le modèle de projet SageMaker pour déployer des modèles dans plusieurs comptes et rendez-le disponible pour SageMaker Studio.

Configuration de SageMaker Studio dans votre compte

Pipelines fournit une prise en charge intégrée pour Modèles MLOps pour vous faciliter l'utilisation de CI / CD pour vos projets ML. Ces modèles MLOps sont définis comme Amazon CloudFormation modèles et publiés via Catalogue de services AWS. Ceux-ci sont mis à la disposition des scientifiques des données via SageMaker Studio, un IDE pour le ML. Pour configurer Studio dans votre compte, procédez comme suit:

  1. Préparez votre domaine SageMaker Studio.
  2. Activer les modèles de projet SageMaker et SageMaker JumpStart pour ce compte et les utilisateurs de Studio.

Si vous disposez d'un domaine existant, vous pouvez simplement modifier les paramètres du domaine ou des utilisateurs individuels pour activer cette option. L'activation de cette option crée deux Gestion des identités et des comptes AWS (IAM) rôles dans votre compte AWS:

  • AmazonSageMakerServiceCatalogProductsLaunchRole - Utilisé par SageMaker pour exécuter les modèles de projet et créer les ressources d'infrastructure requises
  • AmazonSageMakerServiceCatalogProductsUseRole - Utilisé par le pipeline CI / CD pour exécuter un travail et déployer les modèles sur les comptes cibles

Si vous avez créé votre domaine SageMaker Studio avant re: Invent 2020, il est recommandé d'actualiser votre environnement en enregistrant tout le travail en cours. Sur le Déposez le menu, choisissez fermetureet confirmez votre choix.

  1. Créez et préparez deux autres comptes AWS pour la préparation et la production, si vous ne les avez pas encore.

Configurer les organisations

Vous devez ajouter le compte Data Science et les deux comptes supplémentaires à une structure dans Organisations. Les organisations vous aident à gérer et à gouverner de manière centralisée votre environnement à mesure que vous développez et faites évoluer vos ressources AWS. C'est gratuit et profite à votre stratégie de gouvernance.

Chaque compte doit être ajouté à un autre unité organisationnelle (UO).

  1. Dans la console Organisations, créez une structure d'unités d'organisation comme suit:
  • Racine
    • multi-account-deployment (OU)
      • 111111111111 (compte Data Science — SageMaker Studio)
      • production (OU)
        • 222222222222 (compte AWS)
      • staging (OU)
        • 333333333333 (compte AWS)

Après avoir configuré l'organisation, chaque propriétaire de compte reçoit une invitation. Les propriétaires doivent accepter les invitations, sinon les comptes ne sont pas inclus dans l'organisation.

  1. Maintenant, vous devez activer l'accès de confiance avec les organisations AWS («Activer toutes les fonctionnalités» et «Activer l'accès de confiance dans les StackSets»).

Ce processus permet à votre compte Data Science de provisionner des ressources dans les comptes cibles. Si vous ne le faites pas, le processus de déploiement échoue. En outre, cet ensemble de fonctionnalités est le moyen privilégié de travailler avec les organisations et comprend la consolidation des fonctionnalités de facturation.

  1. Ensuite, sur la console Organisations, choisissez Organiser les comptes.
  2. Choisissez mise en scène.
  3. Notez l'ID de l'unité d'organisation.
  4. Répétez ce processus pour le production OU.

Répétez ce processus pour l'unité d'organisation de production.

Configurer les permissions

Vous devez créer un rôle d'exécution SageMaker dans chaque compte supplémentaire. Ces rôles sont assumés par AmazonSageMakerServiceCatalogProductsUseRole dans le compte de science des données pour déployer les points de terminaison dans les comptes cibles et les tester.

  1. Connectez-vous à la AWS Management Console avec le compte intermédiaire.
  2. Exécutez ce qui suit Modèle CloudFormation.

Ce modèle crée un nouveau rôle SageMaker pour vous.

  1. Fournissez les paramètres suivants:
    1. SageMakerRôleSuffix - Une chaîne courte (maximum 10 minuscules sans espaces ni caractères alphanumériques) qui est ajoutée au nom du rôle après le préfixe suivant: sagemaker-role-. Le nom final du rôle est sagemaker-role-<<sagemaker_role_suffix>>.
    2. PipelineExecutionRoleArn - L'ARN du rôle du compte de science des données qui assume le rôle SageMaker que vous créez. Pour trouver l'ARN, connectez-vous à la console avec le compte Data Science. Sur la console IAM, choisissez Rôles et la recherche de AmazonSageMakerServiceCatalogProductsUseRole. Choisissez ce rôle et copiez l'ARN (arn:aws:iam::<<data_science_acccount_id>>:role/service-role/AmazonSageMakerServiceCatalogProductsUseRole).
  2. Après avoir créé ce rôle dans le compte intermédiaire, répétez ce processus pour le compte de production.

Dans le compte Data Science, vous configurez maintenant la stratégie du Service de stockage simple Amazon (Amazon S3) compartiment utilisé pour stocker le modèle entraîné. Pour cet article, nous utilisons le bucket SageMaker par défaut de la région actuelle. Il a le format de nom suivant: sagemaker-<<region>>-<<aws_account_id>>.

  1. Sur la console Amazon S3, recherchez ce compartiment, en indiquant la région que vous utilisez et l'ID du compte de science des données.

Si vous ne le trouvez pas, créez un nouveau compartiment en suivant ce format de nom.

  1. Sur le Permission onglet, ajoutez la stratégie suivante:
    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "AWS": [ "arn:aws:iam::<<staging_account_id>>:root", "arn:aws:iam::<<production_account_id>>:root" ] }, "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::sagemaker-<<region>>-<<aws_account_id>>", "arn:aws:s3:::sagemaker-<<region>>-<<aws_account_id>>/*" ] } ]
    }

  1. Enregistrez vos paramètres.

Les comptes cibles sont désormais autorisés à lire le modèle entraîné pendant le déploiement.

La prochaine étape consiste à ajouter de nouvelles autorisations aux rôles AmazonSageMakerServiceCatalogProductsUseRole et AmazonSageMakerServiceCatalogProductsLaunchRole.

  1. Dans le compte Data Science, sur la console IAM, choisissez Rôles.
  2. Trouvez le AmazonSageMakerServiceCatalogProductsUseRole rôle et choisissez-le.
  3. Ajoutez une nouvelle politique et entrez ce qui suit Code JSON.
  4. Sauvegardez vos modifications
  5. Maintenant, trouvez le AmazonSageMakerServiceCatalogProductsLaunchRole rôle, choisissez-le et ajoutez une nouvelle stratégie avec le contenu suivant:
    { "Version": "2012-10-17", "Statement": [ { "Sid": "VisualEditor0", "Effect": "Allow", "Action": "s3:GetObject", "Resource": "arn:aws:s3:::aws-ml-blog/artifacts/sagemaker-pipeline-blog-resources/*" } ]
    }

  1. Sauvegardez vos modifications

C'est ça! Votre environnement est presque prêt. Vous n'avez besoin que d'une étape supplémentaire et vous pouvez commencer à entraîner et à déployer des modèles dans différents comptes.

Importation du modèle de projet SageMaker Studio personnalisé

Dans cette étape, vous importez votre modèle de projet personnalisé.

  1. Connectez-vous à la console avec le compte Data Science.
  2. Sur la console AWS Service Catalog, sous Administration, choisissez Portefeuilles.
  3. Choisissez Créer un nouveau portfolio.
  4. Nommez le portfolio SageMaker Organization Templates.
  5. Téléchargez ce qui suit modèle à votre ordinateur.
  6. Choisissez le nouveau portefeuille.
  7. Choisissez Télécharger un nouveau produit.
  8. Pour le Nom du produitentrer Multi Account Deployment.
  9. Pour le Description, Entrer Multi account deployment project.
  10. Pour le Propriétaire, entrez votre nom.
  11. Sous Détails de la version, Pour méthode, choisissez Utiliser un fichier modèle.
  12. Choisissez Télécharger un modèle.
  13. Téléchargez le modèle que vous avez téléchargé.
  14. Pour le Titre de la version, choisissez 1.0.

Les paramètres restants sont facultatifs.

  1. Choisissez Commentaires.
  2. Vérifiez vos paramètres et choisissez Créer un produit.
  3. Choisissez Refresh pour lister le nouveau produit.
  4. Choisissez le produit que vous venez de créer.
  5. Sur le Tags onglet, ajoutez la balise suivante au produit:
    1. Clé - sagemaker:studio-visibility
    2. Valeur - True

De retour dans les détails du portefeuille, vous voyez quelque chose de similaire à la capture d'écran suivante (avec différents ID).

De retour dans les détails du portefeuille, vous voyez quelque chose de similaire à la capture d'écran suivante (avec différents ID).

  1. Sur le contraintes onglet, choisissez Créer une contrainte.
  2. Pour le Produit, choisissez Déploiement multi-comptes (le produit que vous venez de créer).
  3. Pour le Type de contrainte, choisissez Lancer.
  4. Sous Contrainte de lancement, Pour méthode, choisissez Sélectionnez le rôle IAM.
  5. Choisissez AmazonSageMakerServiceCatalogProductsLaunchRole.
  6. Choisissez Créer.
  7. Sur le Groupes, rôles et utilisateurs onglet, choisissez Ajouter des groupes, des rôles, des utilisateurs.
  8. Sur le Rôles , sélectionnez le rôle que vous avez utilisé lors de la configuration de votre domaine SageMaker Studio.
  9. Choisissez Ajouter un accès.

Si vous ne vous souvenez pas du rôle que vous avez sélectionné, dans votre compte de science des données, accédez à la console SageMaker et choisissez Amazon SageMaker Studio. Dans le studio Résumé section, recherchez l'attribut Rôle d'exécution. Recherchez le nom de ce rôle à l'étape précédente.

Vous avez terminé! Il est maintenant temps de créer un projet à l'aide de ce modèle.

Créer votre projet

Dans les sections précédentes, vous avez préparé l'environnement multicompte. L'étape suivante consiste à créer un projet à l'aide de votre nouveau modèle.

  1. Connectez-vous à la console avec le compte Data Science.
  2. Sur la console SageMaker, ouvrez SageMaker Studio avec votre utilisateur.
  3. Choisissez le Composants et registres
  4. Dans le menu déroulant, choisissez Projets.
  5. Choisissez Créer un projet.

Choisissez Créer un projet.

Sur le Créer un projet Page, Modèles SageMaker est choisi par défaut. Cette option répertorie les modèles intégrés. Cependant, vous souhaitez utiliser le modèle que vous avez préparé pour le déploiement multicompte.

  1. Choisissez Modèles d'organisation.
  2. Choisissez Déploiement multi-comptes.
  3. Choisissez Sélectionnez un modèle de projet.

Si vous ne pouvez pas voir le modèle, assurez-vous d'avoir correctement suivi toutes les étapes de la section précédente.

Si vous ne pouvez pas voir le modèle, assurez-vous d'avoir correctement suivi toutes les étapes de la section précédente.

  1. Dans le Détails du projet section, pour Prénom et Nom, entrez iris-multi-01.

Le nom du projet doit comporter 15 caractères ou moins.

  1. Dans le Paramètres du modèle de projet, utilisez les noms des rôles que vous avez créés dans chaque compte cible (préparation et production) et indiquez les propriétés suivantes:
    1. SageMakerExecutionRoleStagingName
    2. SageMakerExecutionRoleProdName
  2. Récupérez les ID d'unité d'organisation que vous avez créés précédemment pour les unités d'organisation intermédiaire et de production et fournissez les propriétés suivantes:
    1. OrganizationalUnitStagingId
    2. OrganizationalUnitProdId
  3. Choisissez Créer un projet.

Choisissez Créer un projet.

Le provisionnement de toutes les ressources prend quelques minutes, après quoi le projet est répertorié dans le Projets section. Lorsque vous choisissez le projet, un onglet s'ouvre avec les métadonnées du projet. le Groupes de modèles tab répertorie un groupe de modèles portant le même nom que votre projet. Il a également été créé lors du provisionnement du projet.

Le provisionnement de toutes les ressources prend quelques minutes, après quoi le projet est répertorié dans la section Projets.

L'environnement est maintenant prêt pour que le data scientist commence à entraîner le modèle.

Former un modèle

Maintenant que votre projet est prêt, il est temps de former un modèle.

  1. Télécharger le exemple de cahier à utiliser pour cette procédure pas à pas.
  2. Choisissez le Dossier icône pour changer la zone de travail en gestion de fichiers.
  3. Choisissez le Créer un dossier
  4. Entrez un nom pour le dossier.
  5. Choisissez le nom du dossier.
  6. Choisissez le Importer un fichier
  7. Choisissez le bloc-notes Jupyter que vous avez téléchargé et téléchargez-le dans le nouveau répertoire.
  8. Choisissez le bloc-notes pour ouvrir un nouvel onglet.

Choisissez le bloc-notes pour ouvrir un nouvel onglet.

Vous êtes invité à choisir un noyau.

  1. Choisissez Python3 (Science des données).
  2. Choisissez Choisir.

Choisissez Select.

  1. Dans la deuxième cellule du notebook, remplacez le project_name variable avec le nom que vous avez donné à votre projet (pour cet article, iris-multi-01).

Vous pouvez maintenant exécuter le notebook Jupyter. Ce cahier crée un pipeline très simple avec seulement deux étapes: former et enregistrer le modèle. Il utilise le jeu de données iris et la Conteneur intégré XGBoost comme algorithme.

  1. Exécutez tout le cahier.

Le processus prend un certain temps après l'exécution de la cellule contenant le code suivant:

start_response = pipeline.start(parameters={ "TrainingInstanceCount": "1"
})

Cela démarre le travail de formation, qui dure environ 3 minutes. Une fois la formation terminée, la cellule suivante du notebook Jupyter obtient la dernière version du modèle dans le registre des modèles et la marque comme Approved. Vous pouvez également approuver un modèle à partir de l'interface utilisateur de SageMaker Studio. Sur le Groupes de modèles onglet, choisissez le groupe de modèles et la version souhaitée. Choisir État de mise à jour et Approuver avant de sauvegarder.

Choisissez Mettre à jour l'état et Approuver avant d'enregistrer

C'est la fin du travail du data scientist mais le début de l'exécution du pipeline CI / CD.

Amazon EventBridge surveille le registre des modèles. L'écouteur démarre un nouveau travail de déploiement avec le AWS CodePipeline workflow (créé avec vous lors du lancement du projet SageMaker Studio).

  1. Sur la console CodePipeline, choisissez le pipeline commençant par le préfixe sagemaker-, suivi du nom de votre projet.

Sur la console CodePipeline, choisissez le pipeline commençant par le préfixe sagemaker-, suivi du nom de votre projet.

Peu de temps après avoir approuvé votre modèle, le pipeline de déploiement démarre. Attendez que le pipeline atteigne l'état DeployStaging. Cette étape peut durer environ 10 minutes. Après avoir déployé le premier point de terminaison dans le compte intermédiaire, le pipeline est testé, puis passe à l'étape suivante, ApproveDeployment. Dans cette étape, il attend l'approbation manuelle.

  1. Choisissez Commentaires.
  2. Saisissez un motif d'approbation dans la zone de texte.
  3. Choisissez Approuver.

Le modèle est maintenant déployé dans le compte de production.

Vous pouvez également surveiller le pipeline sur la console AWS CloudFormation, pour voir les piles et les ensembles de piles que le pipeline crée pour déployer des points de terminaison dans les comptes cibles. Pour voir les points de terminaison déployés pour chaque compte, connectez-vous à la console SageMaker en tant que compte intermédiaire ou compte de production et choisissez Endpoints dans le volet de navigation.

Nettoyer

Pour nettoyer toutes les ressources que vous avez provisionnées dans cet exemple, procédez comme suit:

  1. Connectez-vous à la console avec votre compte principal.
  2. Sur la console AWS CloudFormation, cliquez sur StackSets et supprimer les éléments suivants (points de terminaison):
    1. Prod - sagemaker-<<sagemaker-project-name>>-<<project-id>>-deploy-prod
    2. Mise en scène - sagemaker-<<sagemaker-project-name>>-<<project-id>>-deploy-staging
  3. Dans votre ordinateur portable ou votre poste de travail, utilisez le Interface de ligne de commande AWS (AWS CLI) et entrez le code suivant pour supprimer votre projet:
    aws sagemaker delete-project --project-name iris-multi-01

Assurez-vous que vous utilisez le dernière version de l'AWS CLI.

Création et personnalisation d'un modèle pour votre propre projet SageMaker

Projets SageMaker et Modèles de projet SageMaker MLOps sont des fonctionnalités puissantes que vous pouvez utiliser pour créer et configurer automatiquement toute l'infrastructure requise pour former, optimiser, évaluer et déployer des modèles de ML. Un projet SageMaker est un produit provisionné AWS Service Catalog qui vous permet de créer facilement une solution ML de bout en bout. Pour plus d'informations, consultez le Guide de l'administrateur AWS Service Catalog.

Un produit est un modèle CloudFormation géré par AWS Service Catalog. Pour plus d'informations sur les modèles et leurs exigences, voir Formats de modèle AWS CloudFormation.

Les ingénieurs ML peuvent concevoir plusieurs environnements et exprimer tous les détails de cette configuration sous forme de modèle CloudFormation, en utilisant le concept d'infrastructure en tant que code (IaC). Vous pouvez également intégrer ces différents environnements et tâches à l'aide d'un pipeline CI / CD. Les projets SageMaker offrent un moyen simple, sécurisé et direct de regrouper la complexité de l'infrastructure dans le format d'un projet simple, qui peut être lancé plusieurs fois par les autres ingénieurs ML et data scientists.

Le diagramme suivant illustre les principales étapes à effectuer pour créer et publier votre modèle de projet SageMaker personnalisé.

Le diagramme suivant illustre les principales étapes à effectuer pour créer et publier votre modèle de projet SageMaker personnalisé.

Nous avons décrit ces étapes plus en détail dans les sections Importation du modèle de projet SageMaker Studio personnalisé et Créer votre projet.

En tant qu'ingénieur ML, vous pouvez concevoir et créer un nouveau modèle CloudFormation pour le projet, préparez un portefeuille AWS Service Catalog et ajoutez-y un nouveau produit.

Les data scientists et les ingénieurs ML peuvent utiliser SageMaker Studio pour créer un nouveau projet avec le modèle personnalisé. SageMaker appelle AWS Service Catalog et commence à provisionner l'infrastructure décrite dans le modèle CloudFormation.

En tant que data scientist, vous pouvez maintenant commencer à entraîner le modèle. Une fois que vous l'avez inscrit dans le registre de modèles, le pipeline CI / CD s'exécute automatiquement et déploie le modèle sur les comptes cibles.

Si vous regardez le modèle CloudFormation de cet article dans un éditeur de texte, vous pouvez voir qu'il implémente l'architecture que nous décrivons dans cet article.

Le code suivant est un extrait du modèle:

Description: Toolchain template which provides the resources needed to represent infrastructure as code. This template specifically creates a CI/CD pipeline to deploy a given inference image and pretrained Model to two stages in CD -- staging and production.
Parameters: SageMakerProjectName: Type: String SageMakerProjectId: Type: String
…
<<other parameters>>
…
Resources: MlOpsArtifactsBucket: Type: AWS::S3::Bucket DeletionPolicy: Retain Properties: BucketName: …
… ModelDeployCodeCommitRepository: Type: AWS::CodeCommit::Repository Properties: RepositoryName: … RepositoryDescription: … Code: S3: Bucket: … Key: …
… ModelDeployBuildProject: Type: AWS::CodeBuild::Project
… ModelDeployPipeline: Type: AWS::CodePipeline::Pipeline
…

Le modèle comporte deux sections clés: Parameters (paramètres d'entrée du modèle) et Resources. Les modèles de projet SageMaker nécessitent que vous ajoutiez deux paramètres d'entrée à votre modèle: SageMakerProjectName et SageMakerProjectId. Ces paramètres sont utilisés en interne par SageMaker Studio. Vous pouvez ajouter d'autres paramètres si nécessaire.

Dans la section Ressources de l'extrait de code, vous pouvez voir qu'il crée les éléments suivants:

  • Un nouveau compartiment S3 utilisé par le pipeline CI / CD pour stocker les artefacts intermédiaires passés d'une étape à l'autre.
  • An AWS CodeCommit référentiel pour stocker les artefacts utilisés lors des étapes de déploiement et de test.
  • An AWS CodeBuild project pour obtenir les artefacts, puis les valider et les configurer pour le projet. Dans le modèle multicompte, ce projet crée également un nouveau registre de modèles, utilisé par le pipeline CI / CD pour déployer de nouveaux modèles.
  • Un flux de travail CodePipeline qui orchestre toutes les étapes des pipelines CI / CD.

Chaque fois que vous enregistrez un nouveau modèle dans le registre de modèles ou que vous poussez un nouvel artefact vers le référentiel CodeCommit, ce flux de travail CodePipeline démarre. Ces événements sont capturés par un Règle EventBridge, provisionné par le même modèle. Le pipeline CI / CD contient les étapes suivantes:

  • Source - Lit les artefacts du référentiel CodeCommit et les partage avec les autres étapes.
  • Construire - Exécute le projet CodeBuild pour effectuer les opérations suivantes:
    • Vérifiez si un registre de modèles est déjà créé et créez-en un si nécessaire.
    • Préparez un nouveau modèle CloudFormation qui sera utilisé par les deux prochaines étapes de déploiement.
  • DeployStaging - Contient les composants suivants:
    • DeployResourcesStaging - Obtient le modèle CloudFormation préparé dans le Build step et déploie une nouvelle pile. Cette pile déploie un nouveau point de terminaison SageMaker dans le compte cible.
    • TestStaging - Appelle un deuxième projet CodeBuild qui exécute un script Python personnalisé qui teste le point de terminaison déployé.
    • ApprouverDéploiement - Une étape d'approbation manuelle. S'il est approuvé, il passe à l'étape suivante pour déployer un point de terminaison en production, ou met fin au flux de travail s'il n'est pas approuvé.
  • DéployerProd - Semblable à DeployStaging, il utilise le même modèle CloudFormation mais avec des paramètres d'entrée différents. Il déploie un nouveau point de terminaison SageMaker dans le compte de production. 

Vous pouvez démarrer un nouveau processus de formation et enregistrer votre modèle dans le registre de modèles associé au projet SageMaker. Utilisez le bloc-notes Jupyter fourni dans cet article et personnalisez le vôtre Pipeline ML pour préparer votre jeu de données et former, optimiser et tester vos modèles avant de les déployer. Pour plus d'informations sur ces fonctionnalités, consultez Automatisez les MLOps avec les projets SageMaker. Pour plus d'exemples de pipelines, consultez le GitHub repo.

Conclusions et prochaines étapes

Dans cet article, vous avez vu comment préparer votre propre environnement pour former et déployer des modèles ML dans plusieurs comptes AWS à l'aide de SageMaker Pipelines.

Avec les projets SageMaker, la gouvernance et la sécurité de votre environnement peuvent être considérablement améliorées si vous commencez à gérer vos projets ML comme une bibliothèque de modèles de projet SageMaker.

À l'étape suivante, essayez de modifier le modèle de projet SageMaker et de le personnaliser pour répondre aux besoins de votre organisation. Ajoutez autant d'étapes que vous le souhaitez et gardez à l'esprit que vous pouvez capturer les événements CI / CD et notifier les utilisateurs ou appeler d'autres services pour créer des solutions complètes.


A propos de l'auteur

Samir Araújo est un architecte de solutions AI / ML chez AWS. Il aide les clients à créer des solutions AI / ML à résoudre leurs défis commerciaux à l'aide de la plate-forme AWS. Il a travaillé sur plusieurs projets d'IA / ML liés à la vision par ordinateur, au traitement du langage naturel, à la prévision, au ML à la périphérie, etc. Il aime jouer avec des projets de matériel et d'automatisation pendant son temps libre, et il a un intérêt particulier pour la robotique.

Source: https://aws.amazon.com/blogs/machine-learning/multi-account-model-deployment-with-amazon-sagemaker-pipelines/

AI

Newsletter: Le génie d'Elon Musk + Robots chirurgicaux

Avatar

En cliquant sur ce bouton,

on

  • La FDA donne le feu vert à la chirurgie robotique révolutionnaire de Memic
  • Le génie d'Elon Musk est alimenté par batterie
  • Webinaire, 10 mars: Rendre les familles abordables
  • D-ID anime l'animation de nostalgie profonde de MyHeritage
  • Rewire banks 20 M $, dirigé par OurCrowd
  • Le SCiO de Consumer Physics vous permet de vous réveiller et de déguster le café
  • Medisafe lève 30 millions de dollars pour l'IA qui aide les gens à prendre des médicaments
  • Arcadia guide les entreprises sur les coûts énergétiques du travail à domicile
  • L'unité Volvo s'associe à Foretellix d'Israël pour la sécurité autonome
  • Tmura: les options de démarrage aident ceux qui en ont besoin
  • Introductions
  • 1,000 emplois de haute technologie

La FDA donne le feu vert à la chirurgie robotique révolutionnaire de Memic


La FDA a accordé l'autorisation de mise sur le marché De Novo pour le système révolutionnaire de chirurgie robotique Hominis développé par Memic - une première notable. La technologie brevetée permet au chirurgien de contrôler de minuscules bras robotiques ressemblant à des humains, ce qui permet des procédures actuellement considérées comme irréalisables et réduit les cicatrices. «Cette autorisation de la FDA représente une avancée significative dans le monde de la chirurgie assistée par robot et répond à un besoin non satisfait dans le monde de la chirurgie gynécologique robotique», a déclaré le professeur Jan Baekelandt, MD, PhD, gynécologue à l'hôpital Imelda de Bonheiden, en Belgique, qui a réalisé la première hystérectomie en utilisant le système Hominis. «La recherche montre que l'hystérectomie vaginale offre des avantages cliniques optimaux aux patients, notamment une réduction de la douleur, du temps de récupération et des taux d'infection. Hominis est le seul robot spécifiquement développé pour la chirurgie transvaginale et est donc suffisamment petit et flexible pour effectuer une intervention chirurgicale par une petite incision. La solide équipe de direction de Memic est dirigée par le président Maurice R. Ferré MD, qui a fondé Mako Surgical, une entreprise de robotique chirurgicale qui a été vendue pour 1.65 milliard de dollars.

Pour en savoir plus.

Le génie d'Elon Musk est alimenté par batterie


En 2004, le co-fondateur de PayPal, Elon Musk, a pris ce qui semblait être un pari énorme et peut-être imprudent. S'éloignant de la technologie transparente du secteur des paiements en ligne en plein essor, Musk a coulé 30 millions de dollars de sa fortune Internet nouvellement créée dans une startup vieille d'un an qui rêvait de transformer une industrie mondiale centenaire embourbée dans des usines industrielles lourdes, un fret coûteux et un monde complexe. des chaînes d'approvisionnement. La startup de Musk, bien sûr, était Tesla, et le rêve était une voiture entièrement électrique. Aujourd'hui, la voiture électrique est une réalité du marché de masse et le pari de Musk l'a propulsé devant Gates et Bezos directement au Fente supérieure Forbes - au moins pour un moment. Le pari gagnant de Musk n'était pas sur les automobiles, mais sur l'énergie. Le cœur de Tesla n'est pas la mobilité ou les voitures, c'est l'énergie et le stockage de la batterie. En 2004, Musk était en avance sur la courbe en prévoyant la transformation de l'énergie des combustibles fossiles vers les énergies renouvelables. Aujourd'hui, les signes sont partout. Pour en savoir plus, lisez ma chronique régulière `` Investors on the Frontlines '' ici.

Webinar, 10 mars: Rendre les familles abordables

Une tendance clé liée à la pandémie est l'accélération du secteur des technologies de fertilité, y compris la congélation des ovules et la FIV, avec un marché qui devrait valoir plus de 37 milliards de dollars dans moins de 10 ans. Entendu de:

  • Claire Tomkins, PhD, fondateur et PDG de Future Family, vétéran des startups qui était auparavant conseiller en banque d'investissement et directeur de l'accélérateur Carbon War Room de Richard Branson, qui parlera du potentiel de la catégorie et de la solution disruptive de sa startup
  • Angeline N. Beltsos, Chief Medical Officer et CEO, Vios Fertility Institute, sur les défis et les progrès que représentent les problèmes de fertilité
  • Reliure Ashley Gillen, Cliente Future Family, sur son expérience qui a changé sa vie au sein de l'entreprise

Future Family est la première entreprise à réunir le financement, la technologie et les soins de conciergerie dans une plate-forme en ligne facile à utiliser. Avec des revenus et une croissance établis, Future Family est un exemple majeur de FinTech de nouvelle génération, qui fournira des solutions personnalisées pour des secteurs verticaux spécifiques. Animé par Richard Norman, directeur général, OurCrowd.

Mercredi 10 mars à 9h00 San Francisco | 12 h 00 New York | 7h00 Israël 
Inscrivez-vous ici. 

D-ID anime l'animation de nostalgie profonde de MyHeritage


Jimmy Kimmel n'a pas fait beaucoup de travail mercredi. Il a dit qu'il était trop occupé à utiliser la technologie développée par la société du portefeuille OurCrowd FAIT d'apporter une photo de son arrière grand-père à la vie. La plateforme de généalogie MyHeritage a publié une fonctionnalité qui anime les visages sur des photos fixes à l'aide de la technologie de reconstitution vidéo conçue par D-ID. Appelé Nostalgie profonde, il produit une représentation réaliste de la façon dont une personne aurait pu bouger et avoir l'air si elle avait été capturée sur vidéo, à l'aide de vidéos de pilotes préenregistrées qui dirigent les mouvements dans l'animation et consistent en des séquences de gestes humains réels. Les utilisateurs peuvent télécharger une image quel que soit le nombre de visages qu'elle contient. Les photos sont améliorées avant l'animation à l'aide de l'optimiseur de photos MyHeritage, USA Today rapporte. Mon héritage raconte la BBC que certaines personnes pourraient trouver la fonctionnalité «effrayante» tandis que d'autres la considéreraient comme «magique». Cela fait quelques bons jours pour MyHeritage, qui a été acquis par Francisco Partners la semaine dernière pour un montant de 600 millions de dollars.

Rewire banks 20 M $, dirigé par OurCrowd


OurCrowd a mené avec succès une ronde de 20 millions de dollars de la série B pour Rewire, un fournisseur de services bancaires en ligne transfrontaliers pour les travailleurs expatriés. Le financement sera utilisé pour ajouter de nouveaux produits à sa plate-forme, tels que le paiement de factures, l'assurance, l'épargne et les services de crédit et de prêt. Parmi les nouveaux investisseurs figuraient Renegade Partners, Glilot Capital Partners et AME Cloud Ventures, ainsi que d'anciens investisseurs Viola FinTech, BNP Paribas via leur fonds de capital-risque Opera Tech Ventures, Moneta Capital et des investisseurs providentiels privés. Rewire a également obtenu une licence d'institution de monnaie électronique de l'UE auprès de la Banque centrale néerlandaise pour soutenir ses projets d'expansion européenne, Rapports PitchBook. Rewire a également obtenu une licence élargie de fournisseur de services d'actifs financiers israéliens. L'acquisition de ces licences est une autre étape majeure pour la startup FinTech dans sa mission de fournir des services financiers sécurisés et accessibles aux travailleurs migrants du monde entier, Rapports globaux.

Pour en savoir plus.

Top nouvelles de la technologie

Le SCiO de Consumer Physics vous permet de vous réveiller et de déguster le café

  


La start-up israélienne et colombienne de technologie agricole Demetria est sortie de la furtivité avec un tour de table de 3 millions de dollars pour soutenir son système d'analyse de la qualité du café vert basé sur l'intelligence artificielle. Demetria a ajouté l'IA à la technologie SCiO développée par la société de portefeuille OurCrowd Consumer Physics pour permettre un échantillonnage rapide et un contrôle qualité du café. «Nous utilisons cette empreinte digitale sensorielle en combinaison avec une IA complexe et des données de dégustation pour discerner le« goût »», Felipe Ayerbe, PDG et co-fondateur de Demetria, raconte Daily Coffee News. «Demetria est un prédicteur précis de l'analyse des ventouses. Nous avons mené le même processus que nécessaire pour former et certifier un `` cupper '', mais au lieu d'utiliser les sens humains du goût et de l'odorat, nous utilisons des capteurs de pointe qui lisent les marqueurs biochimiques du goût, et couplent cela informations avec AI. » La technologie «a été le pionnier de la numérisation de l'arôme et du goût du café, les variables de qualité les plus importantes du grain de café. Pour la première fois, la qualité et le goût peuvent désormais être évalués à n'importe quelle étape du processus de production et de distribution du café, de la ferme à la table ». dit Food and Drink International

Medisafe lève 30 millions de dollars pour l'IA qui aide les gens à prendre des médicaments
Medisafe, une société du portefeuille d'OurCrowd développant une plate-forme de gestion des médicaments personnalisée pour aider les patients à respecter leurs prescriptions, a levé 30 millions de dollars lors d'une ronde menée par Sanofi Ventures et Alive Israel HealthTech Fund avec la participation de Merck Ventures, Octopus Ventures, OurCrowd et d'autres. Environ 20% à 30% des ordonnances de médicaments ne sont jamais exécutées, et environ 50% des médicaments pour les maladies chroniques ne sont pas pris comme prescrit, causant environ 125,000 100 décès et coûtant au système de santé américain plus de 20 milliards de dollars par an. «Medisafe peut envoyer des e-mails et des SMS aux patients pour leur rappeler de prendre leurs médicaments à temps. De plus, la plate-forme peut cibler les patients à «risque croissant» avec des analyses et des informations basées sur des évaluations comportementales en temps réel, augmentant ainsi l'observance jusqu'à XNUMX% », Rapports VentureBeat.

Arcadia guide les entreprises sur les coûts énergétiques du travail à domicile
Avec des millions d'employés travaillant à domicile, qui devrait payer la facture pour le chauffage et les autres coûts d'énergie? La société de biotechnologie Biogen et le géant financier Goldman Sachs travaillent tous deux avec une société d'énergie alternative Arcadia pour aider les employés à passer leur maison à l'énergie éolienne ou solaire - seules quelques entreprises aident le personnel à explorer les sources d'énergie renouvelables à usage résidentiel. Alexa Minerva, directrice principale des partenariats d'Arcadia, affirme que l'offre n'est que l'un des nombreux nouveaux types d'avantages pour les employés qui peuvent survenir à mesure que le travail devient plus flexible géographiquement à l'ère de la pandémie et au-delà, et que les avantages comme une cafétéria de bureau deviennent moins attrayants. «Cela dit quelque chose non seulement sur… la façon dont vous appréciez une personne, mais aussi ce que vous appréciez en tant qu'entreprise», Minerva raconte le magazine Time. «C'est une excellente stratégie de recrutement et une tactique de rétention.»

L'unité Volvo s'associe à Foretellix d'Israël pour la sécurité autonome
Volvo Autonomous Solutions a formé un partenariat avec la société du portefeuille OurCrowd Foretellix pour créer conjointement une solution de vérification basée sur la couverture pour les véhicules et machines autonomes sur la voie publique et dans les zones confinées telles que les mines et les carrières. La technologie facilitera le test de millions de scénarios différents, ce qui validera la capacité des véhicules autonomes et des machines à faire face à tout ce qu'ils pourraient rencontrer. Foretellix a développé une nouvelle plate-forme de vérification qui utilise des outils d'automatisation intelligente et d'analyse de Big Data qui coordonnent et surveillent des millions de scénarios de conduite, pour exposer les bogues et les cas extrêmes, y compris les cas les plus extrêmes. «Le partenariat avec Foretellix nous donne accès aux outils de vérification de pointe et accélère notre temps de mise sur le marché», Magnus Liljeqvist, Global Technology Manager, Volvo Autonomous Solutions raconte Globes.  

Tmura: les options de démarrage aident ceux qui en ont besoin
La vente de MyHeritage à Francisco Partners pour un montant de 600 millions de dollars aidera directement les organisations à but non lucratif israéliennes travaillant dans des projets d'éducation et de jeunesse grâce à la vente d'options que la startup a fait don en 2013 à Tmura, une organisation à but non lucratif israélienne, Le Times of Israel rapporte. OurCrowd soutient Tmura depuis sa création, encourageant toutes nos startups à donner un pourcentage de leurs options. S'ils ont une grande sortie, cela profite à ceux qui ont besoin d'aide. Un total de 718 entreprises israéliennes ont fait des dons à Tmura, avec un nombre record de 62 nouvelles entreprises donatrices en 2020, alors que les organisations à but non lucratif ont eu du mal à lever des fonds ailleurs pendant la pandémie. Le produit de la sortie en 2020 a totalisé 1.9 million de dollars, la deuxième année la plus élevée de l'histoire, après 2013, lorsque Waze a été vendu à Google pour environ 1 milliard de dollars. Les options de Waze,

Introductions

Votre portefeuille se renforce lorsque le réseau OurCrowd s'implique. Visitez notre Introductions pour voir lesquelles de nos entreprises recherchent des relations avec lesquelles vous pourriez être en mesure de vous aider.

1,000 emplois de haute technologie

Lire l'index trimestriel des emplois OurCrowd ici.
Malgré la pandémie de coronavirus, il existe des centaines de postes ouverts dans les sociétés de notre portefeuille mondial. Voir quelques opportunités ci-dessous:

Recherchez et filtrez Emplois en portefeuille pour trouver votre prochain défi.

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source: https://blog.ourcrowd.com/elon-musks-genius-surgical-robots/

Continuer la lecture

AI

Fetch.ai (FET) atteint un sommet de 2 ans après l'intégration DeFi et le partenariat Bosch

Avatar

En cliquant sur ce bouton,

on

Alors que certains jetons de financement décentralisé (DeFi) de marque crachent, une multitude de nouveaux projets ont émergé qui attrapent de fortes offres grâce à des programmes d'agriculture à rendement agressifs, des largages aériens généreux et des progrès techniques importants. 

C'est un ensemble de projets aberrants faisant avancer à la fois le prix et les fondamentaux qui a conduit un analyste crypto, eGirl Capital's mewny, pour les qualifier de «Gen 2» de DeFi.

Mewny, qui dans une interview avec Cointelegraph a présenté eGirl Capital comme «une organisation qui se considère comme une blague très sérieuse», dit que les jetons Gen 2 ont attiré l'attention en raison de leurs communautés bien cultivées et de leurs modèles de distribution de jetons intelligents - qui conduisent tous les deux à une boucle «récursive» des prix et des sentiments. 

«Je pense qu'en termes d'intérêt du marché, il s'agit davantage de rechercher la nouveauté et le récit à ce stade du cycle. L'analyse fondamentale sera plus importante lorsque le marché se refroidira et que l'utilité est le seul filet de sécurité aux évaluations. Les récits chauds ont tendance à s'articuler autour de projets de base qui se sont taillés une catégorie sur le marché », ont-ils déclaré.

Alors que les investisseurs pourraient être impatients de s'imprégner de ces nouveaux jetons à croissance rapide, il vaut la peine de se demander ce que font les projets, s'ils sont durables et, sinon, dans quelle mesure ils doivent être exécutés.

Pumpamentals ou fondamentaux?

Le phénomène Gen 2 fait écho «l'été DeFi» de l'année dernière, rempli de parachutages «DeFi stimulus check», d'APY de culture de graisse et de flambée des prix des jetons - ainsi que d'un une série déchirante de hacks, braquages ​​et rugpulls

Cependant, mewny dit qu'il y a une population d'investisseurs qui a émergé de cette période à la recherche continue de progrès technique plutôt que d'étoiles filantes. 

«Il y a des projets« moi aussi »moins rapides en définitive. Un investisseur peut penser que ces projets n'ont jamais attiré beaucoup de liquidités au départ, mais ils surestiment la sagesse du marché si c'est le cas. Ils ont tiré et tirent des liquidités, en particulier des participants qui se sentaient épuisés ou en retard aux premiers à venir, ce qui a donné la parole à des projets légitimes qui n'ont pas cessé de se développer malgré le changement d'orientation du marché. "

Le financement inversé est l'un de ces leviers de génération 2 tirant des liquidités. Après le lancement d'un programme d'agriculture de rendement pour un prochain stablecoin synthétique protocole, le DAO d'Inverse Finance a voté de justesse pour rendre le jeton de gouvernance INV échangeable. En conséquence, le parachutage jeton autrefois sans valeur de 80 INV est maintenant au prix de plus de 100,000 $, probablement le parachutage le plus lucratif de l'histoire de Defi. 

Une autre star de la génération 2 est Alchemix - l'un des premiers investissements annoncés d'eGirl Capital. Le protocole d'Alchemix se concentre également sur un stablecoin synthétique, alUSD, mais génère le stablecoin via des garanties déposées dans les coffres à rendement de Yearn.Finance. Le résultat est un prêt stablecoin basé sur des jetons qui se paie de lui-même - un nouveau modèle qui, selon eGirl, pourrait devenir un standard.

«EGirl pense que la négociation d'intérêts productifs de rendement sera une primitive importante dans DeFi. Quantifier et évaluer le rendement futur débloque une grande valeur utilisable qui peut être réinvestie sur le marché », ont-ils déclaré.

Les marchés plus larges semblent être d'accord avec la thèse d'eGirl, car Alchemix a récemment annoncé que le protocole avait éclipsé un demi-milliard de valeur totale verrouillée:

Rester au pouvoir?

En revanche, les jetons de gouvernance pour de nombreux grands noms de DeFi, tels que Aave et Yearn.Finance, sont dans le rouge sur une base de 30 jours. Mais même avec les noms phares qui stagnent, le chiffre global de TVL étroitement surveillé de DeFi est en hausse sur le mois, passant de 8.4 milliards de dollars à 56.8 milliards de dollars par DeFi Llama - des progrès réalisés en partie grâce aux projets de deuxième génération. 

Cependant, les dinosaures relativement froissés et desséchés de DeFi peuvent avoir des signes de vie. Plusieurs projets majeurs ont des mises à jour importantes en préparation, notamment la version 3 d'Uniswap, la plate-forme de prêt Bentobox de Sushiswap, une proposition d'extraction de liquidité fonctionnant via le processus de gouvernance d'Aave et la version 2 de Balancer.

Ces développements pourraient signifier que le phénomène «Gen 2» de DeFi est simplement une rotation intra-sectorielle temporaire, et que les «majors» vont bientôt rugir. Ce serait une décision prévisible de l'avis de Mewny, qui affirme que «chaque protocole Defi a besoin d'au moins un marché baissier pour prouver sa solidité technique.»

De plus, selon Mewny, certains des signes d'irrationalité du marché autour des jetons Gen 2 ainsi que de l'espace DeFi plus large - tels que les rendements agricoles à trois et même à quatre chiffres - pourraient disparaître le plus tôt possible.

«Je ne pense pas que ce soit viable pour aucun projet dans des conditions de marché régulières. Nous ne sommes pas dans des conditions régulières pour le moment. Les spéculateurs soutiennent depuis un certain temps des protocoles DeFi potentiellement non viables. »

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Découvrez Nord
Faites fructifier votre argent avec Mintos
Source: https://cointelegraph.com/news/defi-summer-2-0-gen-2-tokens-on-a-tear-amid-wider-market-slump

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source: https://coingenius.news/fetch-ai-fet-hits-a-2-year-high-after-defi-integration-and-bosch-partnership/?utm_source=rss&utm_medium=rss&utm_campaign=fetch-ai-fet -hits-un-2-year-high-after-defi-integration-and-bosch-partenariat

Continuer la lecture

Intelligence artificielle

iMe Messenger et Crypto Wallet Review: Conçu pour les discussions sécurisées et les DeFi à bas frais

Avatar

En cliquant sur ce bouton,

on

L'industrie iMe Messenger et portefeuille crypto, développé par iMe Lab, est un client multifonctionnel cinq étoiles alimenté par l'API Telegram. Telegram est un messager axé sur la confidentialité et l'une des plus grandes applications au monde.

Tirer parti des API Telegram

Cela signifie que la plate-forme intègre certaines des fonctionnalités critiques de Telegram et des aspects de la finance décentralisée (DeFi), devenant essentiellement un client Telegram avec prise en charge du portefeuille crypté. 

Dans le but de révolutionner la messagerie, iMe Messenger a également intégré des outils et exploite l'intelligence artificielle et la blockchain. 

La combinaison de toutes ces fonctionnalités et de l'intégration rend iMe Messenger et Crypto Wallet multifonctionnel, rapide, puissant et privé. 

Toutes les données des utilisateurs sont sécurisées dans un multi-cloud, garantissant la protection de la vie privée - un droit de l'homme irréprochable.

Fonctionnalités d'iMe Messenger

IMe Messenger est conçu pour fonctionner pour les chats. 

En conséquence, le client dispose de sujets et de dossiers de discussion spécifiques avec des paramètres avancés pour les onglets et les dossiers. 

Ceci, à son tour, introduit des niveaux de flexibilité inégalés, permettant à l'utilisateur final de trier et d'archiver les discussions. Dans le même temps, les utilisateurs peuvent écouter de la musique à partir du lecteur de musique de l'application tout en discutant à partir du même appareil.

Pour une intégration facile des clients, iMe Messenger a spécifiquement conçu le frontal et l'interface utilisateur pour être faciles à utiliser, quelle que soit la technicité de l'utilisateur. 

Par exemple, le messager dispose d'un paramètre de menu latéral et les utilisateurs peuvent filtrer les contacts. Il existe également un panneau multiple dans les chats. 

En même temps, ils peuvent désactiver la barre inférieure de leurs canaux respectifs. Tous les paramètres d'iMe Messenger peuvent également être sauvegardés dans le cloud. C'est pratique, en particulier pour les utilisateurs qui souhaitent changer d'appareil mais qui souhaitent ne pas perdre les paramètres précédents.

Le messager va un cran plus haut pour la différenciation, en particulier dans la gamme d'outils qu'il met à la disposition des utilisateurs. Une fois installé et discuté, un utilisateur peut transférer plusieurs chats. Parallèlement, ils peuvent également répondre en plusieurs fois en groupe. 

Les utilisateurs qui discutent dans des groupes / canaux multilingues peuvent également traduire automatiquement les messages entrants et sortants. De plus, les utilisateurs peuvent convertir des messages vocaux en texte, extraire du texte d'images et faire des descriptions d'images. 

Ceux qui sont en mouvement ou occupés à ne pas répondre peuvent activer des assistants neurobots qui peuvent intervenir et offrir des réponses rapides sous forme de phrases et de GIF. 

Le portefeuille crypto iMe Messenger est également multi-devises et constitue une partie essentielle de la plate-forme intelligente iMe. Leur fusion des fonctionnalités intéressantes de Telegram et de la prise en charge de la crypto-monnaie - et par extension DeFi, fait d'iMe l'une des applications de messagerie les plus avancées. 

iMe Messenger a été téléchargé plus de 634k fois. L'application compte plus de 93 utilisateurs actifs, dont la plupart utilisent des appareils Android.

Prise en charge de la crypto-monnaie et DeFi

L'application est également un portefeuille de crypto-monnaie prenant en charge certaines des principales pièces et jetons DeFi. En haut de la liste se trouvent l'ETH et l'USDT. Ether (ETH) est la monnaie native du réseau Ethereum qui abrite désormais DeFi. 

Selon les trackers, il y a plus de 40 milliards de dollars d'actifs numériques gérés par les protocoles DeFi basés sur Ethereum. Le jeton USDT est un outil permettant aux utilisateurs d'interagir avec les différentes applications DeFi. 

Déjà, iMe Messenger a intégré Uniswap. Le protocole DeFi est le plus grand échange décentralisé au monde, permettant l'échange sans confiance de jetons via des pools incitatifs où les fournisseurs de liquidité (LP) gagnent des récompenses. 

Au-delà des jetons DeFi, iMe Messenger permet un stockage sécurisé de LIME et OLCF. Grâce à la plate-forme, les utilisateurs peuvent stocker, échanger et transférer en toute sécurité ces pièces dans les chats. La plate-forme a également sa devise native, AiCoin. Il permet la monétisation dans l'application et sert de moyen de calcul.

Pour une entrée plus rapide et transparente dans la crypto, iMe Messenger a en partenariat avec Simplex. Les utilisateurs peuvent acheter des crypto-monnaies prises en charge à l'aide de leurs cartes de crédit. Cela aide à favoriser l'adoption et à améliorer la connaissance des crypto-monnaies. 

Simplex est une institution financière réglementée qui permet aux utilisateurs de déployer une gamme de canaux comme options de paiement. 

Pour améliorer encore l'expérience utilisateur, en particulier ceux qui sont activement impliqués dans DeFi, iMe Messenger a intégré avec la Binance Smart Chain (BSC). 

La plate-forme de contrats intelligents proposée par Binance est compatible avec la machine virtuelle Ethereum (EVM), et les transactions via le réseau sont relativement bon marché et plus rapides car la plate-forme est évolutive. 

Telegram - https://t.me/ime_en

Vous aimez BTCMANAGER? Envoyez-nous un pourboire!

Notre adresse Bitcoin: 3AbQrAyRsdM5NX5BQh8qWYePEpGjCYLCy4

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source: https://btcmanager.com/ime-messenger-crypto-wallet-review-secure-low-fee-defi/

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source: https://coingenius.news/ime-messenger-and-crypto-wallet-review-designed-for-secure-chats-and-low-fee-defi/?utm_source=rss&utm_medium=rss&utm_campaign=ime-messenger-and -Crypto-portefeuille-examen-conçu-pour-des-chats-sécurisés-et-defi-de-frais-bas

Continuer la lecture

Intelligence artificielle

Deep Science: aventures de l'IA dans les arts et les lettres

Avatar

En cliquant sur ce bouton,

on

Il y a plus d'actualités sur l'IA là-bas que n'importe qui peut suivre. Mais vous pouvez rester assez à jour sur les développements les plus intéressants avec cette chronique, qui recueille les progrès de l'IA et de l'apprentissage automatique du monde entier et explique pourquoi ils pourraient être importants pour la technologie, les startups ou la civilisation.

Pour commencer sur une note légère: les moyens que les chercheurs trouvent pour appliquer l'apprentissage automatique aux arts sont toujours intéressants - mais pas toujours pratiques. Une équipe de l'Université de Washington a voulu voir si un système de vision par ordinateur pouvait apprendre à dire ce qui est joué sur un piano simplement à partir d'une vue aérienne des touches et des mains du joueur.

Audéo, le système formé par Eli Shlizerman, Kun Su et Xiulong Liu, regarde une vidéo de jeu de piano et extrait d'abord une simple séquence d'appuis sur des touches en forme de rouleau de piano. Ensuite, il ajoute une expression sous la forme de la longueur et de la force des presses, et enfin le peaufine pour l'entrée dans un synthétiseur MIDI pour la sortie. Les résultats sont un peu lâches mais définitivement reconnaissables.

Diagramme montrant comment la vidéo des mains d'un pianiste sur les touches est transformée en séquences MIDI.

Générique de l'illustration: Shlizerman, et. Al

«Créer une musique qui donne l'impression qu'elle pourrait être jouée dans une performance musicale était auparavant considéré comme impossible», a déclaré Shlizerman. «Un algorithme doit déterminer les indices, ou« caractéristiques », dans les images vidéo qui sont liés à la génération de musique, et il doit« imaginer »le son qui se produit entre les images vidéo. Cela nécessite un système à la fois précis et imaginatif. Le fait que nous ayons réalisé une musique qui sonnait plutôt bien a été une surprise.

Une autre du domaine des arts et des lettres est cette recherche extrêmement fascinante sur dépliage informatique de lettres anciennes trop délicates à manipuler. L'équipe du MIT examinait des lettres «verrouillées» du XVIIe siècle qui sont si étroitement pliées et scellées que retirer la lettre et l'aplatir pourrait les endommager de façon permanente. Leur approche consistait à radiographier les lettres et à définir un nouvel algorithme avancé pour déchiffrer les images résultantes.

Schéma montrant des vues radiographiques d'une lettre et comment elle est analysée pour la déplier virtuellement.

Schéma montrant des vues radiographiques d'une lettre et comment elle est analysée pour la déplier virtuellement. Générique de l'illustration: MIT

«L'algorithme finit par faire un travail impressionnant pour séparer les couches de papier, malgré leur extrême finesse et leurs minuscules espaces entre eux, parfois inférieurs à la résolution du scan», a déclaré Erik Demaine du MIT. «Nous n'étions pas sûrs que ce serait possible.» Le travail peut être applicable à de nombreux types de documents qui sont difficiles à démêler pour les techniques de radiographie simples. C'est un peu exagéré de catégoriser cela comme «apprentissage automatique», mais c'était trop intéressant pour ne pas l'inclure. Lisez l'article complet sur Communications Nature.

Le diagramme montrant les revues des points de charge de voiture électrique sont analysés et transformés en données utiles.

Générique de l'illustration: Asensio, et. Al

Vous arrivez à une borne de recharge pour votre voiture électrique et vous trouvez qu'elle est hors service. Vous pourriez même laisser une mauvaise critique en ligne. En fait, des milliers de ces examens existent et constituent une carte potentiellement très utile pour les municipalités qui cherchent à étendre l'infrastructure des véhicules électriques.

Omar Asensio de Georgia Tech formé un modèle de traitement du langage naturel sur de telles revues et il est rapidement devenu un expert pour les analyser par milliers et extraire des informations telles que les endroits où les pannes étaient courantes, le coût comparatif et d'autres facteurs.

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source: https://techcrunch.com/2021/03/05/deep-science-ai-adventures-in-arts-and-letters/

Continuer la lecture
GamingIl y a 4 jours

Betfred Sports, représenté par la direction de SCCG, signe un accord de marketing pluriannuel avec les Rocheuses du Colorado

BlockchainIl y a 4 jours

Le `` sénateur Bitcoin '' Lummis optimiste à propos de la réforme fiscale de la crypto

BlockchainIl y a 4 jours

Dogecoin devient la crypto-monnaie la plus populaire

BlockchainIl y a 4 jours

Le gestionnaire de fonds spéculatifs milliardaire et un ancien président de la CFTC auraient investi dans une entreprise de cryptographie

BlockchainIl y a 4 jours

Analyse du prix du Bitcoin: de retour au-dessus de 50K $, mais face à une énorme résistance maintenant

BlockchainIl y a 4 jours

NEXT Chain: Blockchain de nouvelle génération avec des yeux sur l'industrie DeFi

StartupsIl y a 5 jours

À quoi s'attendre demain aux sessions TC: Justice 2021

Equité PrivéIl y a 5 jours

Instacart lève 265 millions de dollars pour une valorisation de 39 milliards de dollars

BlockchainIl y a 5 jours

Pourquoi mars 2021 pourrait voir Bitcoin enregistrer un autre recul

AR / VRIl y a 5 jours

'Farpoint' Studio Impulse Gear annonce un nouveau jeu VR à venir cette année

AIIl y a 5 jours

Comment l'IA transforme la cybersécurité en 2021?

BlockchainIl y a 4 jours

Les investisseurs institutionnels continuent d'acheter du Bitcoin alors que le prix dépasse 50K $: rapport

BlockchainIl y a 5 jours

QuickSwap DEX offre une prise en charge des cartes de crédit et de débit

BlockchainIl y a 3 jours

Elrond & Reef Finance s'associent pour plus de connectivité et de liquidité

Big DataIl y a 2 jours

Fichiers de la plate-forme d'apprentissage en ligne Coursera pour l'introduction en bourse aux États-Unis

BlockchainIl y a 5 jours

NSAV ANNONCE LA SIGNATURE DES DOCUMENTS DE CLÔTURE POUR L'ACQUISITION DE CRYPTOCURRENCY TRADING BROKER, VIRTUABROKER

BlockchainIl y a 5 jours

TaxBit, une start-up fiscale de crypto-monnaie, lève 100 millions de dollars en round soutenu par PayPal, Bill Ackman et plus

ecommerceIl y a 5 jours

Vestiaire Collective lève 216 millions de dollars pour sa plateforme de mode d'occasion

BlockchainIl y a 5 jours

Gary Gensler, candidat à la présidence de la SEC: Crypto, un `` catalyseur du changement ''

AutomobileIl y a 5 jours

Uber lance le démarrage du robot de livraison sous le nom de Serve Robotics

Tendance