Vous créez un modèle AutoML directement dans la console Google Cloud ou en créant un pipeline d'entraînement par programmation à l'aide de l'API ou de l'une des bibliothèques clientes Vertex AI.
Ce modèle est créé à l'aide d'un ensemble de données préparé que vous avez fourni à l'aide de la console ou de l'API Vertex AI. L'API Vertex AI utilise les éléments de l'ensemble de données pour entraîner le modèle, le tester et en évaluer les performances. Passez en revue les résultats des évaluations, ajustez l'ensemble de données d'entraînement si nécessaire puis créez un pipeline d'entraînement à l'aide de l'ensemble de données amélioré.
L'entraînement d'un modèle peut prendre plusieurs heures. L'API Vertex AI vous permet d'obtenir l'état du job d'entraînement.
Créer un pipeline d'entraînement AutoML Edge
Lorsque vous disposez d'un ensemble de données contenant un ensemble représentatif d'éléments d'entraînement, vous êtes prêt à créer un pipeline d'entraînement AutoML Edge.
Sélectionnez un type de données.
Image
Sélectionnez l'onglet correspondant à votre objectif :
Classification
Lors de l'entraînement, vous pouvez choisir le type de modèle AutoML Edge souhaité, en fonction de votre cas d'utilisation spécifique :
- Latence faible (
MOBILE_TF_LOW_LATENCY_1
) - Usage général (
MOBILE_TF_VERSATILE_1
) - Meilleure qualité de prédiction (
MOBILE_TF_HIGH_ACCURACY_1
)
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - PROJECT : l'ID de votre projet.
- TRAININGPIPELINE_DISPLAYNAME : valeur obligatoire. Nom à afficher pour le trainingPipeline.
- DATASET_ID : ID de l'ensemble de données à utiliser pour l'entraînement.
- fractionSplit : facultatif. Une des nombreuses options de répartition possibles en cas d'utilisation de ML pour vos données. Pour
fractionSplit
, les valeurs doivent être égales à 1. Par exemple :-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME* : nom à afficher pour le modèle importé (créé) par le TrainingPipeline.
- MODEL_DESCRIPTION* : description du modèle.
- modelToUpload.labels* : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODELTYPE† : type de modèle Edge à entraîner. Vous disposez des options suivantes :
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET† : le coût réel de l'entraînement sera égal ou inférieur à cette valeur. Pour les modèles Edge, le budget doit être compris entre 1 000 et 100 000 millièmes d'heures-nœud (inclus).
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
* | La description du fichier de schéma que vous spécifiez dans trainingTaskDefinition décrit l'utilisation de ce champ. |
† | Le fichier de schéma que vous spécifiez dans trainingTaskDefinition déclare et décrit ce champ. |
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "false", "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la tâche trainingPipeline à l'aide de TRAININGPIPELINE_ID.
Classification
Lors de l'entraînement, vous pouvez choisir le type de modèle AutoML Edge souhaité, en fonction de votre cas d'utilisation spécifique :
- Latence faible (
MOBILE_TF_LOW_LATENCY_1
) - Usage général (
MOBILE_TF_VERSATILE_1
) - Meilleure qualité de prédiction (
MOBILE_TF_HIGH_ACCURACY_1
)
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - PROJECT : l'ID de votre projet.
- TRAININGPIPELINE_DISPLAYNAME : valeur obligatoire. Nom à afficher pour le trainingPipeline.
- DATASET_ID : ID de l'ensemble de données à utiliser pour l'entraînement.
- fractionSplit : facultatif. Une des nombreuses options de répartition possibles en cas d'utilisation de ML pour vos données. Pour
fractionSplit
, les valeurs doivent être égales à 1. Par exemple :-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME* : nom à afficher pour le modèle importé (créé) par le TrainingPipeline.
- MODEL_DESCRIPTION* : description du modèle.
- modelToUpload.labels* : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODELTYPE† : type de modèle Edge à entraîner. Vous disposez des options suivantes :
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET† : le coût réel de l'entraînement sera égal ou inférieur à cette valeur. Pour les modèles Edge, le budget doit être compris entre 1 000 et 100 000 millièmes d'heures-nœud (inclus).
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
* | La description du fichier de schéma que vous spécifiez dans trainingTaskDefinition décrit l'utilisation de ce champ. |
† | Le fichier de schéma que vous spécifiez dans trainingTaskDefinition déclare et décrit ce champ. |
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "true", "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la tâche trainingPipeline à l'aide de TRAININGPIPELINE_ID.
Détection d'objets
Lors de l'entraînement, vous pouvez choisir le type de modèle AutoML Edge souhaité, en fonction de votre cas d'utilisation spécifique :
- Latence faible (
MOBILE_TF_LOW_LATENCY_1
) - Usage général (
MOBILE_TF_VERSATILE_1
) - Meilleure qualité de prédiction (
MOBILE_TF_HIGH_ACCURACY_1
)
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - PROJECT : l'ID de votre projet.
- TRAININGPIPELINE_DISPLAYNAME : valeur obligatoire. Nom à afficher pour le trainingPipeline.
- DATASET_ID : ID de l'ensemble de données à utiliser pour l'entraînement.
fractionSplit
: facultatif. Une des nombreuses options de répartition possibles en cas d'utilisation de ML pour vos données. PourfractionSplit
, les valeurs doivent être égales à 1. Par exemple :-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME* : nom à afficher pour le modèle importé (créé) par le TrainingPipeline.
- MODEL_DESCRIPTION* : description du modèle.
- modelToUpload.labels* : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODELTYPE† : type de modèle Edge à entraîner. Vous disposez des options suivantes :
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET† : le coût réel de l'entraînement sera égal ou inférieur à cette valeur. Pour les modèles cloud, le budget doit être compris entre 20 000 et 900 000 milli-nœuds-heure (inclus). La valeur par défaut est de 216 000, ce qui correspond à une durée d'exécution d'une journée, en supposant que 9 nœuds sont utilisés.
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
* | La description du fichier de schéma que vous spécifiez dans trainingTaskDefinition décrit l'utilisation de ce champ. |
† | Le fichier de schéma que vous spécifiez dans trainingTaskDefinition déclare et décrit ce champ. |
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la tâche trainingPipeline à l'aide de TRAININGPIPELINE_ID.
Vidéo
Sélectionnez l'onglet correspondant à votre objectif :
Reconnaissance des actions
Lors de l'entraînement, choisissez le type de périphérie AutoML suivant :
MOBILE_VERSATILE_1
: usage général
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT : l'ID de votre projet.
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - TRAINING_PIPELINE_DISPLAY_NAME : valeur obligatoire. Nom à afficher pour le TrainingPipeline.
- DATASET_ID : ID de l'ensemble de données d'entraînement.
-
TRAINING_FRACTION, TEST_FRACTION : l'objet
fractionSplit
est facultatif, il sert à contrôler la répartition des données. Pour en savoir plus sur le contrôle de la répartition des données, consultez la page À propos de la répartition des données pour les modèles AutoML. Exemple :{"trainingFraction": "0.8","validationFraction": "0","testFraction": "0.2"}
- MODEL_DISPLAY_NAME : nom à afficher du modèle entraîné.
- MODEL_DESCRIPTION : description du modèle.
- MODEL_LABELS : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODEL_TYPE :
MOBILE_VERSATILE_1
: usage général
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "TRAINING_FRACTION", "validationFraction": "0", "testFraction": "TEST_FRACTION" } }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_action_recognition_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODEL_TYPE"], } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la progression du trainingPipeline pour savoir quand il se termine.Classification
Lors de l'entraînement, choisissez le type de périphérie AutoML suivant :
MOBILE_VERSATILE_1
: usage général
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT : l'ID de votre projet.
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - TRAINING_PIPELINE_DISPLAY_NAME : valeur obligatoire. Nom à afficher pour le TrainingPipeline.
- DATASET_ID : ID de l'ensemble de données d'entraînement.
-
TRAINING_FRACTION, TEST_FRACTION : l'objet
fractionSplit
est facultatif, il sert à contrôler la répartition des données. Pour en savoir plus sur le contrôle de la répartition des données, consultez la page À propos de la répartition des données pour les modèles AutoML. Exemple :{"trainingFraction": "0.8","validationFraction": "0","testFraction": "0.2"}
- MODEL_DISPLAY_NAME : nom à afficher du modèle entraîné.
- MODEL_DESCRIPTION : description du modèle.
- MODEL_LABELS : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODEL_TYPE :
MOBILE_VERSATILE_1
: usage général
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "TRAINING_FRACTION", "validationFraction": "0", "testFraction": "TEST_FRACTION" } }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_classification_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODEL_TYPE"], } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la progression du trainingPipeline pour savoir quand il se termine.Suivi des objets
Lors de l'entraînement, choisissez le type de périphérie AutoML :
MOBILE_VERSATILE_1
: usage généralMOBILE_CORAL_VERSATILE_1
: meilleure qualité de prédiction pour Google CoralMOBILE_CORAL_LOW_LATENCY_1
: latence plus faible pour Google CoralMOBILE_JETSON_VERSATILE_1
: meilleure qualité de prédiction pour NVIDIA JetsonMOBILE_JETSON_LOW_LATENCY_1
: latence plus faible pour NVIDIA Jetson
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT : l'ID de votre projet.
- LOCATION : région d'emplacement de l'ensemble de données et de création du modèle. Exemple :
us-central1
. - TRAINING_PIPELINE_DISPLAY_NAME : valeur obligatoire. Nom à afficher pour le TrainingPipeline.
- DATASET_ID : ID de l'ensemble de données d'entraînement.
-
TRAINING_FRACTION, TEST_FRACTION : l'objet
fractionSplit
est facultatif, il sert à contrôler la répartition des données. Pour en savoir plus sur le contrôle de la répartition des données, consultez la page À propos de la répartition des données pour les modèles AutoML. Exemple :{"trainingFraction": "0.8","validationFraction": "0","testFraction": "0.2"}
- MODEL_DISPLAY_NAME : nom à afficher du modèle entraîné.
- MODEL_DESCRIPTION : description du modèle.
- MODEL_LABELS : tout ensemble de paires clé/valeur pour organiser vos modèles. Exemple :
- "env" : "prod"
- "tier" : "backend"
- EDGE_MODEL_TYPE : Choisissez l'une des options suivantes :
MOBILE_VERSATILE_1
: usage généralMOBILE_CORAL_VERSATILE_1
: meilleure qualité de prédiction pour Google CoralMOBILE_CORAL_LOW_LATENCY_1
: latence plus faible pour Google CoralMOBILE_JETSON_VERSATILE_1
: meilleure qualité de prédiction pour NVIDIA JetsonMOBILE_JETSON_LOW_LATENCY_1
: latence plus faible pour NVIDIA Jetson
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corps JSON de la requête :
{ "displayName": "TRAINING_PIPELINE_DISPLAY_NAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "TRAINING_FRACTION", "validationFraction": "0", "testFraction": "TEST_FRACTION" } }, "modelToUpload": { "displayName": "MODEL_DISPLAY_NAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_video_object_tracking_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODEL_TYPE"], } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/beta1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur TRAININGPIPELINE_ID.
Vous pouvez obtenir l'état de la progression du trainingPipeline pour savoir quand il se termine.Obtenir l'état de trainingPipeline
Utilisez le code suivant pour obtenir par programmation l'état de la création de trainingPipeline.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où se trouve le TrainingPipeline.
- PROJECT : l'ID de votre projet.
- TRAININGPIPELINE_ID : ID de l'objet TrainingPipeline spécifique.
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
Méthode HTTP et URL :
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Exécutez la commande suivante :
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID"
PowerShell
Exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID" | Select-Object -Expand Content
Le champ "state"
indique l'état actuel de l'opération. Un pipeline d'entraînement terminé s'affiche.
Pour une opération de création de trainingPipeline terminée, un résultat semblable aux lignes suivantes doit s'afficher :
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Obtenir des informations sur le modèle
Une fois la création du trainingPipeline terminée, vous pouvez utiliser le nom à afficher du modèle pour obtenir des informations plus détaillées.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où se trouve le modèle. Par exemple,
us-central1
. - PROJECT : l'ID de votre projet.
- MODEL_DISPLAYNAME : nom d'affichage de votre modèle que vous avez spécifié lors de la création d'une tâche trainingPipeline.
- PROJECT_NUMBER : numéro de projet généré automatiquement pour votre projet.
Méthode HTTP et URL :
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Exécutez la commande suivante :
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME "
PowerShell
Exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME " | Select-Object -Expand Content
Un résultat semblable aux lignes suivantes doit s'afficher pour un modèle AutoML Edge entraîné. L'exemple de résultat suivant concerne un modèle d'image AutoML Edge :
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.