Vertex AI per gli utenti di AI Platform

Vertex AI riunisce AI Platform e AutoML in un'unica interfaccia. Questa pagina mette a confronto Vertex AI e AI Platform per gli utenti che hanno dimestichezza con AI Platform.

Addestramento personalizzato

Con Vertex AI, puoi addestrare i modelli con AutoML addestramento personalizzato, che è un flusso di lavoro più simile all'AI Platform Training.

Attività AI Platform Training Vertex AI
Seleziona la versione del framework di machine learning per utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni runtime: quando invii un job di addestramento, specifica numero di una versione del runtime che includa il framework desiderato completamente gestita. Container predefiniti: quando invii un job di addestramento personalizzato, specifica l'URI di Artifact Registry di un container predefinito che corrisponde al tuo framework e alla relativa versione.
Invia un job di addestramento utilizzando un container personalizzato Crea il tuo container personalizzato e ospitalo su Artifact Registry e utilizzarlo per eseguire la tua app di addestramento.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando invii un job di addestramento a una endpoint globale (ml.googleapis.com). Invia il job di addestramento personalizzato a un endpoint a livello di regione, ad esempio us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Specifica le configurazioni delle macchine per l'addestramento distribuito Specifica le configurazioni con nomi che fanno riferimento a ruoli specifici del cluster di addestramento (masterConfig, workerConfig, parameterServerConfig e evaluatorConfig). La configurazione è un elenco generico: specifica la macchina configurazioni in CustomJobSpec.workerPoolSpecs[]
Invia un job di addestramento utilizzando un pacchetto Python I campi relativi al tuo pacchetto Python sono di primo livello in TrainingInput. I campi relativi al tuo pacchetto Python sono organizzati in pythonPackageSpec.
Specifica i tipi di macchina
Invio di un job di ottimizzazione degli iperparametri Invia un job di addestramento con hyperparameters configurazione. Indipendentemente dal fatto che un job di addestramento venga inviato con o senza ottimizzazione degli iperparametri, viene creata una risorsa API TrainingJob. Invia un job di ottimizzazione degli iperparametri con una configurazione studySpec. Viene creata un'API di primo livello risorsa (HyperparameterTuningJob). Job di addestramento personalizzati inviate senza l'ottimizzazione degli iperparametri, creano una CustomJob risorsa API.
Crea una pipeline di addestramento per orchestrare i job di addestramento con altri suite operativa Nessuna risorsa API integrata per l'orchestrazione; utilizza AI Platform Pipelines, Kubeflow o un altro strumento di orchestrazione. Crea una risorsa TrainingPipeline per orchestrare una un job di addestramento con deployment del modello.

Previsione

Attività AI Platform Prediction Vertex AI
Seleziona la versione del framework di machine learning per utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni di runtime: quando esegui il deployment di un modello, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. Container predefiniti: quando esegui il deployment di un modello, specifica URI Artifact Registry di un container predefinito in base alla versione del framework e alla versione del framework. Utilizza la l'opzione multiregionale corrispondente al tuo endpoint a livello di regione, per esempio, us-docker.pkg.dev per us-central1 endpoint.
Esegui codice personalizzato con previsione Utilizza routine di previsione personalizzate. Utilizza routine di previsione personalizzate su Vertex AI.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando crei un modello su un endpoint API globale (ml.googleapis.com). Crea il tuo modello su un endpoint a livello di regione, ad esempio us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Archivia artefatti del modello Gli artefatti del modello vengono archiviati in Cloud Storage. Non è associata alcuna risorsa API per gli elementi del modello. È disponibile spazio di archiviazione dei modelli gestito per gli artefatti del modello ed è associato alla risorsa Model.
Puoi comunque eseguire il deployment di modelli archiviati in Cloud Storage senza utilizzare gestito da Vertex AI.
Deployment del modello Esegui il deployment di un modello direttamente per renderlo disponibile per le previsioni online. Crea un oggetto Endpoint, che fornisce risorse per la pubblicazione di previsioni online. Poi esegui il deployment del modello nell'endpoint. Per richiedere le previsioni, chiama il metodo predict().
Richiedi previsioni batch Puoi richiedere previsioni batch sui modelli archiviati in Cloud Storage e specificare una versione di runtime nella richiesta. In alternativa, puoi richiedere previsioni batch sui modelli di cui è stato eseguito il deployment e utilizzare la versione di runtime specificata durante il deployment del modello. Carica il modello su Vertex AI e poi specifichi in un container predefinito o un container personalizzato per fornire le previsioni.
Richieste di previsione online La struttura JSON include un elenco di istanze. La struttura JSON include un elenco di istanze e un campo per i parametri.
Specifica i tipi di macchina Specifica qualsiasi tipo di macchina disponibile quando crei una versione. I tipi di macchine di previsione online legacy di AI Platform (MLS1) non supportati. Sono disponibili solo tipi di macchine Compute Engine.
Deployment modelli Creare una risorsa del modello e una risorsa versione. Creare una risorsa del modello, creare una risorsa endpoint ed eseguire il deployment del modello all'endpoint. Specifica la suddivisione del traffico nell'endpoint.

Vertex Explainable AI

Puoi ottenere attribuzioni delle caratteristiche per i modelli tabulari e immagine in AI Explanations for AI Platform e Vertex Explainable AI.

Attività AI Explanations per AI Platform Vertex Explainable AI
Ottenere le attribuzioni delle caratteristiche per i modelli tabulari Utilizza il valore di Shapley campionato o i gradienti integrati per ottenere le attribuzioni delle funzionalità per i modelli tabulari.
Visualizzare le attribuzioni delle caratteristiche per i modelli di immagine Usa i gradienti integrati o l'XRAI per ottenere le caratteristiche attribuzioni per i modelli di immagine.