ทำให้ AI ใช้งานได้ทั้งในอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง

  • ในอุปกรณ์

    ลดเวลาในการตอบสนอง ทำงานแบบออฟไลน์ เก็บข้อมูลของคุณไว้ในเครื่องและ ส่วนตัว

  • ข้ามแพลตฟอร์ม

    ใช้งานโมเดลเดียวกันทั้งใน Android, iOS, เว็บ และแบบฝัง

  • หลายเฟรมเวิร์ก

    ใช้งานได้กับโมเดล JAX, Keras, PyTorch และ TensorFlow

  • EDGE Stack ของ AI เต็มรูปแบบ

    เฟรมเวิร์กที่ยืดหยุ่น โซลูชันแบบครบวงจร และตัวเร่งฮาร์ดแวร์

โซลูชันสำเร็จรูปและเฟรมเวิร์กที่ยืดหยุ่น

API แบบใช้โค้ดน้อยสำหรับงาน AI ทั่วไป

API แบบข้ามแพลตฟอร์มเพื่อจัดการงานทั่วไปของ Generative AI, วิสัยทัศน์, ข้อความ และเสียง

เริ่มต้นใช้งานงาน MediaPipe

ทำให้โมเดลที่กำหนดเองใช้งานได้ข้ามแพลตฟอร์ม

เรียกใช้โมเดล JAX, Keras, PyTorch และ TensorFlow อย่างมีประสิทธิภาพบน Android, iOS, เว็บ และอุปกรณ์แบบฝัง ซึ่งเพิ่มประสิทธิภาพเพื่อ ML และ Generative AI แบบดั้งเดิม

เริ่มต้นใช้งาน LiteRT
ฟีเจอร์ 2

ทำให้วงจรการพัฒนาสั้นลงด้วยการแสดงข้อมูลผ่านภาพ

แสดงภาพการเปลี่ยนรูปแบบของโมเดลผ่าน Conversion และการวัดจํานวน แก้ไขข้อบกพร่องของฮอตสปอตตาม ซ้อนทับผลลัพธ์การเปรียบเทียบ

เริ่มต้นใช้งาน Model Explorer
ฟีเจอร์ 1

สร้างไปป์ไลน์ที่กำหนดเองสำหรับฟีเจอร์ ML ที่ซับซ้อน

สร้างงานของคุณเองด้วยการเชื่อมโยงโมเดล ML หลายๆ โมเดลอย่างมีประสิทธิภาพ รวมถึงก่อนและหลังการประมวลผล เรียกใช้ไปป์ไลน์แบบเร่ง (GPU และ NPU) โดยไม่บล็อก CPU

เริ่มต้นใช้งาน MediaPipe Framework
ฟีเจอร์ 2

เครื่องมือและเฟรมเวิร์กที่ขับเคลื่อนแอปของ Google

สำรวจ AI Edge Stack แบบเต็มรูปแบบ ซึ่งมีผลิตภัณฑ์จากทุกระดับ ตั้งแต่ API แบบใช้โค้ดน้อยไปจนถึงไลบรารีการเร่งความเร็วเฉพาะฮาร์ดแวร์

งาน MediaPipe

สร้างฟีเจอร์ AI ลงในแอปบนอุปกรณ์เคลื่อนที่และเว็บแอปได้อย่างรวดเร็วโดยใช้ API ที่ลดโค้ดสำหรับงานทั่วไป เช่น Generative AI, คอมพิวเตอร์วิทัศน์, ข้อความ และเสียง

Generative AI

ผสานรวมภาษา Generative และโมเดลรูปภาพของ Generative ลงในแอปโดยตรงด้วย API ที่พร้อมใช้งาน

การมองเห็น

สำรวจงานด้านการมองเห็นที่หลากหลาย ตั้งแต่การแบ่งกลุ่มลูกค้า การแยกประเภท การตรวจจับ การจดจำ และจุดสังเกต

ข้อความและ เสียง

จัดประเภทข้อความและเสียงในหลายหมวดหมู่ รวมถึงภาษา ความรู้สึก และหมวดหมู่ที่คุณกำหนดเอง

เฟรมเวิร์ก MediaPipe

เฟรมเวิร์กระดับต่ำที่ใช้สร้างไปป์ไลน์ ML แบบเร่งที่มีประสิทธิภาพสูง มักรวมโมเดล ML หลายรายการรวมกับการประมวลผลก่อนและหลังแบบก่อนและหลัง

LiteRT

ทำให้โมเดล AI ที่เขียนในเฟรมเวิร์กใดก็ได้ใช้งานได้ทั้งบนอุปกรณ์เคลื่อนที่ เว็บ และไมโครคอนโทรลเลอร์ด้วยการเร่งความเร็วเฉพาะฮาร์ดแวร์ที่มีการเพิ่มประสิทธิภาพ

หลายเฟรมเวิร์ก

แปลงโมเดลจาก JAX, Keras, PyTorch และ TensorFlow เพื่อเรียกใช้บนขอบ

ข้ามแพลตฟอร์ม

เรียกใช้โมเดลเดียวกันบน Android, iOS, เว็บ และไมโครคอนโทรลเลอร์ที่มี SDK แบบเนทีฟ

น้ำหนักเบาและ รวดเร็ว

รันไทม์ที่มีประสิทธิภาพของ LiteRT ใช้พื้นที่เพียงไม่กี่เมกะไบต์และเปิดใช้การเร่งความเร็วโมเดลใน CPU, GPU และ NPU

โปรแกรมสำรวจรูปแบบการระบุแหล่งที่มา

สำรวจ แก้ไขข้อบกพร่อง และเปรียบเทียบโมเดลของคุณด้วยภาพ วางซ้อนการเปรียบเทียบประสิทธิภาพและตัวเลขเพื่อระบุฮอตสปอตที่เป็นปัญหา

ตัวละครนาโน

วิดีโอและบล็อกโพสต์ล่าสุด