Vertex AI riunisce AI Platform e AutoML in un'unica interfaccia. Questa pagina mette a confronto Vertex AI e AI Platform per gli utenti che hanno dimestichezza con AI Platform.
Addestramento personalizzato
Con Vertex AI, puoi addestrare i modelli con AutoML addestramento personalizzato, che è un flusso di lavoro più simile all'AI Platform Training.
Attività | AI Platform Training | Vertex AI |
---|---|---|
Seleziona la versione del framework di machine learning per utilizzare | Gli utenti della console Google Cloud impostano il nome e la versione del framework. | |
Versioni runtime: quando invii un job di addestramento, specifica numero di una versione del runtime che includa il framework desiderato completamente gestita. | Container predefiniti: quando invii un job di addestramento personalizzato, specifica l'URI di Artifact Registry di un container predefinito che corrisponde al tuo framework e alla relativa versione. | |
Invia un job di addestramento utilizzando un container personalizzato | Crea il tuo container personalizzato e ospitalo su Artifact Registry e utilizzarlo per eseguire la tua app di addestramento. | |
Imposta la regione Google Cloud da utilizzare | Specifica il nome di una regione quando invii un job di addestramento a una
endpoint globale (ml.googleapis.com ). |
Invia il job di addestramento personalizzato a un endpoint a livello di regione, ad esempio
us-central1-aiplatform.googleapis.com .
Non esiste un endpoint globale. Alcune regioni
disponibili in AI Platform non sono
disponibili in Vertex AI. Consulta l'elenco delle regioni supportate
nella pagina Località.
|
Specifica le configurazioni delle macchine per l'addestramento distribuito | Specifica le configurazioni con nomi che fanno riferimento a ruoli specifici
del cluster di addestramento
(masterConfig , workerConfig ,
parameterServerConfig e evaluatorConfig ).
|
La configurazione è un elenco generico: specifica la macchina
configurazioni in
CustomJobSpec.workerPoolSpecs[] |
Invia un job di addestramento utilizzando un pacchetto Python | I campi relativi al tuo pacchetto Python sono di primo livello in
TrainingInput . |
I campi relativi al tuo pacchetto Python sono organizzati in
pythonPackageSpec . |
Specifica i tipi di macchina |
|
|
Invio di un job di ottimizzazione degli iperparametri |
Invia un job di addestramento con hyperparameters
configurazione. Indipendentemente dal fatto che un job di addestramento venga inviato con o senza ottimizzazione degli iperparametri, viene creata una risorsa API TrainingJob .
|
Invia un job di ottimizzazione degli iperparametri con una configurazione studySpec . Viene creata un'API di primo livello
risorsa (HyperparameterTuningJob ). Job di addestramento personalizzati
inviate senza l'ottimizzazione degli iperparametri, creano una
CustomJob risorsa API.
|
Crea una pipeline di addestramento per orchestrare i job di addestramento con altri suite operativa | Nessuna risorsa API integrata per l'orchestrazione; utilizza AI Platform Pipelines, Kubeflow o un altro strumento di orchestrazione. | Crea una risorsa TrainingPipeline per orchestrare una
un job di addestramento con deployment del modello. |
Previsione
Attività | AI Platform Prediction | Vertex AI |
---|---|---|
Seleziona la versione del framework di machine learning per utilizzare | Gli utenti della console Google Cloud impostano il nome e la versione del framework. | |
Versioni di runtime: quando esegui il deployment di un modello, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. | Container predefiniti: quando esegui il deployment di un modello, specifica
URI Artifact Registry di un
container predefinito
in base alla versione del framework
e alla versione del framework. Utilizza la
l'opzione multiregionale corrispondente al tuo endpoint a livello di regione, per
esempio, us-docker.pkg.dev per us-central1
endpoint. |
|
Esegui codice personalizzato con previsione | Utilizza routine di previsione personalizzate. | Utilizza routine di previsione personalizzate su Vertex AI. |
Imposta la regione Google Cloud da utilizzare | Specifica il nome di una regione quando crei un modello su un endpoint API globale (ml.googleapis.com ). |
Crea il tuo modello su un endpoint a livello di regione, ad esempio
us-central1-aiplatform.googleapis.com .
Non esiste un endpoint globale. Alcune regioni
disponibili in AI Platform non sono
disponibili in Vertex AI. Consulta l'elenco delle regioni supportate
nella pagina Località.
|
Archivia artefatti del modello | Gli artefatti del modello vengono archiviati in Cloud Storage. Non è associata alcuna risorsa API per gli elementi del modello. | È disponibile spazio di archiviazione dei modelli gestito per gli artefatti del modello ed è associato alla risorsa Model .Puoi comunque eseguire il deployment di modelli archiviati in Cloud Storage senza utilizzare gestito da Vertex AI. |
Deployment del modello | Esegui il deployment di un modello direttamente per renderlo disponibile per le previsioni online. |
Crea un oggetto Endpoint, che fornisce risorse per la pubblicazione di previsioni online. Poi esegui il deployment del modello nell'endpoint.
Per richiedere le previsioni, chiama il metodo
predict() . |
Richiedi previsioni batch | Puoi richiedere previsioni batch sui modelli archiviati in Cloud Storage e specificare una versione di runtime nella richiesta. In alternativa, puoi richiedere previsioni batch sui modelli di cui è stato eseguito il deployment e utilizzare la versione di runtime specificata durante il deployment del modello. | Carica il modello su Vertex AI e poi specifichi in un container predefinito o un container personalizzato per fornire le previsioni. |
Richieste di previsione online | La struttura JSON include un elenco di istanze. | La struttura JSON include un elenco di istanze e un campo per i parametri. |
Specifica i tipi di macchina | Specifica qualsiasi tipo di macchina disponibile quando crei una versione. | I tipi di macchine di previsione online legacy di AI Platform (MLS1) non supportati. Sono disponibili solo tipi di macchine Compute Engine. |
Deployment modelli | Creare una risorsa del modello e una risorsa versione. | Creare una risorsa del modello, creare una risorsa endpoint ed eseguire il deployment del modello all'endpoint. Specifica la suddivisione del traffico nell'endpoint. |
Vertex Explainable AI
Puoi ottenere attribuzioni delle caratteristiche per i modelli tabulari e immagine in AI Explanations for AI Platform e Vertex Explainable AI.
Attività | AI Explanations per AI Platform | Vertex Explainable AI |
---|---|---|
Ottenere le attribuzioni delle caratteristiche per i modelli tabulari | Utilizza il valore di Shapley campionato o i gradienti integrati per ottenere le attribuzioni delle funzionalità per i modelli tabulari. | |
Visualizzare le attribuzioni delle caratteristiche per i modelli di immagine | Usa i gradienti integrati o l'XRAI per ottenere le caratteristiche attribuzioni per i modelli di immagine. |