Wednesday, May 21, 2025
AICloudGenerative AINEWSTechnology

Google Cloud ประกาศเปิดตัวนวัตกรรมปี 2025 สำหรับองค์กร

Vertex AI

Google Cloud นำร่องนวัตกรรม AI สำหรับองค์กรในหลากหลายอุตสาหกรรมที่งาน Next ’25 ตอกย้ำกระแสตอบรับที่ดีจากลูกค้าในเอเชียตะวันออกเฉียงใต้

นงาน Google Cloud Next 2025 Google Cloud  ได้ประกาศเปิดตัวนวัตกรรมมากมายที่สำคัญอย่างยิ่งในกลุ่มผลิตภัณฑ์ที่ครอบคลุมทั้งโครงสร้างพื้นฐาน แพลตฟอร์มข้อมูลและ AI, โมเดล AI, AI agent และความปลอดภัยทางไซเบอร์ รวมถึงความสามารถแบบมัลติคลาวด์ เพื่อเน้นย้ำถึงความมุ่งมั่นในการสร้างความเปิดกว้าง การทำงานร่วมกันได้ และการนำสิ่งที่ดีที่สุดของ Google มาสู่องค์กร

ปลดล็อคพลังการประมวลผลด้วยโครงสร้างพื้นฐานของ Google

องค์กรสามารถใช้ประโยชน์จากโครงสร้างพื้นฐานการประมวลผลระดับโลกของ Google Cloud ได้แล้ว ซึ่งโฮสต์อยู่ใน Google Cloud Region จำนวน 42 แห่งทั่วโลก ซึ่งรวมถึงประเทศอินโดนีเซียและสิงคโปร์ พร้อมแผนการขยายตัวอย่างรวดเร็วไปยังไทยและมาเลเซีย

Google Cloud ให้บริการ AI Hypercomputer ผ่านทาง Cloud Region มากมาย ซึ่งเป็นระบบซูเปอร์คอมพิวเตอร์ที่ประกอบด้วยฮาร์ดแวร์ ซอฟต์แวร์ และรูปแบบการบริโภคที่ยืดหยุ่น (flexible consumption models) เพื่อช่วยให้องค์กรสามารถนำ AI ไปใช้งานได้ง่ายขึ้น พร้อมประสิทธิภาพคุ้มค่าระดับแนวหน้าของอุตสาหกรรม

โดย Google Cloud ได้เปิดตัวความก้าวหน้าใหม่ๆ ให้กับ AI Hypercomputer ได้แก่

หน่วยประมวลผลเทนเซอร์ Ironwood (TPU) Ironwood ซึ่งเป็น TPU รุ่นที่ 7 ของ Google ถือเป็นตัวเร่งความเร็ว AI แบบกำหนดเอง (หรือชิป AI) ที่มีประสิทธิภาพและปรับขนาดได้มากที่สุดในปัจจุบัน และเป็นเครื่องเร่งความเร็วตัวแรกที่ออกแบบมาโดยเฉพาะสำหรับการอนุมาน AI โดยมีชิปมากกว่า 9,000 ชิ้นต่อพ็อด 

ทำให้สามารถประมวลผลได้สูงถึง 42.5 เอ็กซาฟล็อปต่อพ็อด ตอบสนองความต้องการที่เพิ่มขึ้นอย่างทวีคูณของโมเดลการคิดที่ซับซ้อนที่สุด เช่น Gemini 2.5 

นอกจากนี้ Ironwood ยังประหยัดพลังงานมากกว่า TPU รุ่นที่ 6 ของ Google ถึง 2 เท่า และประหยัดพลังงานมากกว่า TPU รุ่นแรกจาก Google ที่ออกในปี 2018 ถึง 30 เท่า

ตัวเลือก GPU ของ NVIDIA ที่ครอบคลุม Google Cloud มอบฮาร์ดแวร์ AI ทางเลือกให้กับองค์กรต่างๆ ที่มี Virtual Machines (VM) A4 และ A4X ที่ขับเคลื่อนโดยหน่วยประมวลผลกราฟิก (GPU) NVIDIA HGX B200 และ NVIDIA GB200 

นอกจากนี้ Google ยังเป็นผู้ให้บริการคลาวด์รายแรกที่จะนำเสนอ GPU Vera Rubin รุ่นถัดไปของ NVIDIA

Cluster Director Cluster Director ช่วยให้องค์กรสามารถใช้งานและจัดการตัวเร่งความเร็ว AI จำนวนมากเป็นหน่วยการประมวลผลแบบรวมหน่วยเดียว จึงช่วยเพิ่มประสิทธิภาพการทำงานและความยืดหยุ่น 

การอนุมาน Google Kubernetes Engine (GKE) ความสามารถในการอนุมานใหม่ใน GKE ซึ่งรวมถึงระบบการปรับขนาดและการปรับสมดุลโหลดที่เข้าใจบริบทของ AI สามารถลดต้นทุนการให้บริการ AI ได้มากถึง 30% ลดเวลาแฝงในส่วนท้ายได้มากถึง 60% และเพิ่มปริมาณงานได้มากถึง 40% โดยอิงตามเกณฑ์มาตรฐานภายใน

ความพร้อมใช้งานของ Pathways Pathways ซึ่งเป็น distributed machine learning runtime ของ Google พร้อมให้บริการแก่องค์กรต่างๆ เป็นครั้งแรกแล้ว โดย Pathways ได้รับการพัฒนาโดย Google DeepMind ช่วยให้สามารถอนุมานโฮสต์หลายโฮสต์ที่ทันสมัยสำหรับการปรับขนาดแบบไดนามิกด้วยประสิทธิภาพที่ยอดเยี่ยมในราคาที่เหมาะสมที่สุด

Google Data Centers และ Google Cloud Regions เชื่อมต่อกันด้วยโครงสร้างพื้นฐานเครือข่ายระดับโลกของ Google ซึ่งมีสายไฟเบอร์ยาวกว่า 2 ล้านไมล์ ทั้งสายเคเบิลภาคพื้นดินและใต้น้ำ ครอบคลุมพื้นที่และอาณาเขตมากกว่า 200 แห่ง และทำงานด้วย “ความเร็วของ Google” ซึ่งมีค่าความหน่วงเกือบเป็นศูนย์ เพื่อรองรับบริการที่จำเป็น เช่น Gmail, YouTube และ Google Search สำหรับผู้ใช้หลายพันล้านคนทั่วโลก

ตั้งแต่วันนี้เป็นต้นไป Google Cloud จะทำให้เครือข่ายส่วนตัวทั่วโลกนี้พร้อมใช้งานสำหรับองค์กรต่างๆ ผ่านบริการใหม่ที่เรียกว่า Cloud Wide Area Network (WAN) โดย Cloud WAN เป็นบริการที่ได้รับการจัดการอย่างเต็มรูปแบบ เชื่อถือได้ และปลอดภัย ซึ่งช่วยเปลี่ยนโฉมโครงสร้าง WAN ขององค์กร โดยมอบการปรับปรุงประสิทธิภาพเครือข่ายที่สูงถึง 40% ขณะเดียวกันก็ลดต้นทุนรวมในการเป็นเจ้าของได้มากถึง 40% 

ด้วยการเข้าถึงโครงสร้างพื้นฐานเครือข่ายและซูเปอร์คอมพิวเตอร์ระดับโลกของ Google Cloud องค์กรต่างๆ สามารถใช้ประโยชน์จากรากฐานระดับโลกที่แท้จริงและยืดหยุ่น ที่สร้างขึ้นสำหรับยุค AI

นอกจากนี้ Google Cloud ยังประกาศว่าโมเดล Gemini ของ Google จะพร้อมใช้งานบน Google Distributed Cloud (GDC) ซึ่งจะทำให้โมเดลที่ทรงประสิทธิภาพที่สุดของ Google พร้อมใช้งานในสภาพแวดล้อมภายในองค์กร หรือ on-premises environments นั่นเอง ทั้งนี้ Google Cloud ได้จับมือเป็นพันธมิตรกับ NVIDIA เพื่อนำโมเดล Gemini ไปสู่ระบบ NVIDIA Blackwell โดยมี Dell เป็นพันธมิตรหลัก 

ดังนั้นจึงสามารถใช้โมเดลเหล่านี้ภายในองค์กรในสภาพแวดล้อมที่เชื่อมต่อกันและแยกจากกันแบบ air-gapped ซึ่งถือเป็นสิ่งสำคัญสำหรับองค์กร เช่น ภาครัฐ ที่อยู่ภายใต้ข้อกำหนดด้านกฎระเบียบหรืออำนาจอธิปไตยที่เข้มงวด และไม่สามารถเข้าถึงเทคโนโลยี AI ล่าสุดได้ เนื่องจากต้องจัดเก็บข้อมูลภายในองค์กรแบบ on-premise 

โมเดลชั้นนำของ Google นำสิ่งที่ดีที่สุดของ Google DeepMind มาสู่องค์กร

แพลตฟอร์ม Vertex_AI ของ Google Cloud ช่วยให้องค์กรสามารถเข้าถึงโมเดลแนวหน้าระดับโลกที่หลากหลายของ Google DeepMind ได้ ซึ่งแต่ละโมเดลได้รับการออกแบบอย่างพิถีพิถันและพัฒนาอย่างต่อเนื่องเพื่อตอบสนองความต้องการเฉพาะตัวของแต่ละองค์กร ซึ่งรวมถึง

โมเดล Gemini 2.5 โมเดล Gemini 2.5 เป็นโมเดลการคิดที่สามารถใช้เหตุผลผ่านกระบวนการคิดของตนเองก่อนตอบสนอง ส่งผลให้ประสิทธิภาพการทำงานดีขึ้นและมีความแม่นยำมากขึ้น เมื่อสองสัปดาห์ก่อน Google Cloud ได้นำ Gemini 2.5 Pro เข้ามาให้ใช้งานผ่าน Vertex AI 

และภายในงาน Next ’25 ก็ได้ประกาศว่า Gemini 2.5 Flash กำลังจะเปิดให้ใช้งานผ่าน Vertex AI ด้วยเช่นกัน โดย Gemini 2.5 Flash เหมาะอย่างยิ่งสำหรับกรณีการใช้งานในชีวิตประจำวัน เช่น การตอบสนองอย่างรวดเร็วในระหว่างการโต้ตอบกับลูกค้าจำนวนมาก 

ซึ่งจำเป็นต้องมีการสรุปแบบเรียลไทม์หรือการเข้าถึงเอกสารอย่างรวดเร็ว Gemini 2.5 Flash สามารถปรับความลึกของการใช้เหตุผลตามความซับซ้อนของ prompts และองค์กรสามารถควบคุมประสิทธิภาพการทำงานตามงบประมาณของตนได้

โมเดล Generative media

  • Imagen 3 โมเดลการแปลงข้อความเป็นรูปภาพที่มีคุณภาพสูงสุดจาก Google ขณะนี้มีความสามารถในการสร้างรูปภาพและแก้ไขภาพใหม่ (inpainting) เพื่อสร้างส่วนที่หายไปหรือเสียหายของรูปภาพขึ้นมาใหม่
  • Chirp 3 ซึ่งเป็นโมเดลการสร้างเสียงของ Google มาพร้อมวิธีการใหม่ในการสร้างเสียงที่กำหนดเองได้ด้วยการป้อนข้อมูลเสียงเพียง 10 วินาที ช่วยให้องค์กรต่างๆ สามารถปรับแต่ง call center และสร้างเสียงที่เป็นเอกลักษณ์ของแบรนด์ได้ นอกจากนี้ ฟีเจอร์การถอดเสียงใหม่ยังช่วยแยกและระบุผู้พูดแต่ละคนในบันทึกเสียงของการสนทนาหลายคน ทำให้การถอดเสียงสำหรับแอปพลิเคชันต่างๆ เช่น สรุปการประชุม การวิเคราะห์พอดแคสต์ และการบันทึกการโทรของหลายฝ่ายมีความชัดเจนและใช้งานได้ดีขึ้นอย่างมาก
  • Lyria ซึ่งเป็นโมเดลการแปลงข้อความเป็นเพลงสำหรับองค์กรรุ่นแรกของอุตสาหกรรม ช่วยแปลงข้อความธรรมดาให้กลายเป็นคลิปเพลงความยาว 30 วินาที ซึ่งเปิดโอกาสใหม่สำหรับการแสดงออกเชิงสร้างสรรค์ โดย Lyria สามารถสร้างเสียงคุณภาพสูง จับภาพความแตกต่างที่ละเอียดอ่อนได้อย่างพิถีพิถัน และมอบคอมโพซิชั่นที่ลงรายละเอียดสำหรับแนวเพลงต่างๆ ทั้งนี้ ด้วย Lyria องค์กรต่างๆ สามารถสร้างเพลงประกอบสำหรับแคมเปญการตลาด การเปิดตัวผลิตภัณฑ์ประสบการณ์ในร้านที่ดื่มด่ำ พอดคาสต์ และเนื้อหาดิจิทัลอื่นๆ ที่สอดคล้องกับแบรนด์ของตนได้อย่างรวดเร็ว
  • คุณสมบัติใหม่ที่ช่วยให้องค์กรต่างๆ ใช้ประโยชน์จาก Veo 2 โมเดลการสร้างวิดีโอชั้นนำของอุตสาหกรรมจาก Google ใน Vertex AI เพื่อสร้าง แก้ไข และเพิ่มเอฟเฟกต์ภาพในวิดีโอ ซึ่งรวมถึงการทำ inpainting เพื่อลบภาพพื้นหลัง โลโก้ หรือสิ่งรบกวนที่ไม่ต้องการ ช่วยให้สามารถแก้ไขวิดีโอได้อย่างมืออาชีพ การทำ outpainting เพื่อขยายเฟรมของวิดีโอที่มีอยู่ ช่วยให้องค์กรต่างสามารถปรับแต่งวิดีโอให้เหมาะกับขนาดหน้าจอและแพลตฟอร์มต่างๆ ได้ อีกทั้งยังมีการใช้เทคนิคการทำภาพยนตร์ที่ซับซ้อนเพื่อจัดองค์ประกอบภาพ มุมกล้อง และจังหวะ และการแทรกสอดเฟรม (interpolation) ซึ่งช่วยให้บริษัทต่างๆ สามารถกำหนดจุดเริ่มต้นและจุดสิ้นสุดของลำดับวิดีโอ โดย Veo จะทำหน้าที่เป็นผู้ช่วยในการสร้างเฟรมที่เชื่อมต่อกันได้อย่างราบรื่น
โมเดลสำหรับการค้นพบทางวิทยาศาสตร์
  • โมเดล WeatherNext ที่พัฒนาโดย Google DeepMind และ Google Research ช่วยให้สามารถพยากรณ์อากาศได้อย่างรวดเร็วและแม่นยำ ปัจจุบันแบบจำลองเหล่านี้พร้อมใช้งานใน Vertex AI แล้ว ทำให้องค์กรต่างๆ สามารถปรับแต่งและนำไปใช้งานในการวิจัยและการใช้งานในอุตสาหกรรมได้
  • AlphaFold 3 ที่พัฒนาโดย Google DeepMind และ Isomorphic Labs สามารถทำนายโครงสร้างและปฏิสัมพันธ์ของโมเลกุลของสิ่งมีชีวิตทั้งหมดได้อย่างแม่นยำอย่างที่ไม่เคยมีมาก่อน ปัจจุบันโมเดลเหล่านี้สามารถนำไปใช้งานโดยใช้โครงสร้างพื้นฐาน Google Cloud สำหรับการใช้งานที่ไม่ใช่เชิงพาณิชย์ ช่วยให้นักวิจัยสามารถประมวลผลลำดับโปรตีนได้หลายหมื่นลำดับ ในขณะที่ลดต้นทุนการประมวลผล
 Vertex AI แพลตฟอร์มที่ครอบคลุมที่สุดสำหรับนวัตกรรม AI

Vertex AI คือแพลตฟอร์มระดับองค์กรของ Google Cloud สำหรับการสร้างและจัดการแอปพลิเคชันด้าน AI และ AI agent รวมถึงการฝึกอบรมและการปรับใช้แบบจำลอง โดยในงาน Next ’25 บริษัท Google Cloud ได้ประกาศความก้าวหน้าใหม่ๆ ของ Vertex AI ซึ่งช่วยปรับปรุงความสามารถขององค์กรในการจัดการแผนการด้าน AI ของตน ซึ่งรวมถึง:

  • โมเดล AI กว่า 200 โมเดลพร้อมให้เลือกใช้งานใน Vertex AI Model Garden:องค์กรสามารถเข้าถึงโมเดลของ Google ได้โดยตรง รวมถึงโมเดลจากบริษัทชั้นนำอย่าง Anthropic, AI21, Mistral, CAMB.AI และ Qodo ตลอดจนโมเดลแบบเปิดจาก DeepSeek, Meta และ The Allen Institute ซึ่งทั้งหมดนี้รวมอยู่ใน Vertex AI เพื่อให้เลือกใช้งานได้ตามความต้องการ
  • การฝึกฝนและปรับแต่งโมเดล AI ตามความต้องการ: องค์กรสามารถฝึกฝนและปรับแต่งโมเดลจาก Google ได้อย่างอิสระ ซึ่งรวมไปถึงโมเดลตระกูลหลัก เช่น Gemini, Imagen, Veo, โมเดลฝังข้อมูล (embedding) และโมเดลการแปลภาษา รวมถึงโมเดลแบบเปิดอย่าง Gemma, Llama และ Mistral โดยใช้ข้อมูลขององค์กรตนเองในการฝึกฝน
  • การเชื่อมต่อแหล่งข้อมูลจากคลาวด์หลากหลายแพลตฟอร์ม: เพื่อให้โมเดลสามารถเข้าถึงข้อมูลที่ถูกต้องได้ในเวลาที่เหมาะสม ไม่ว่าจะข้อมูลนั้นจะถูกจัดเก็บอยู่บน Google Cloud, AWS, Microsoft Azure, Oracle หรือผู้ให้บริการรายอื่นๆ องค์กรจะสามารถใช้ตัวเชื่อมต่อและ API ที่มีให้พร้อมใช้งานใน Vertex AI ได้อย่างเต็มประสิทธิภาพ
  • ยกระดับความน่าเชื่อถือด้วยการอ้างอิงแหล่งข้อมูลที่ไว้ใจได้ยิ่งขึ้น: นอกเหนือจากการ Grounding ผ่าน Google Search แล้วนั้น ปัจจุบัน Vertex AI ยังรองรับการ Grounding ข้อมูลด้วย Google Maps เพื่อให้ผลลัพธ์จากโมเดล AI ที่เกี่ยวข้องกับข้อมูลเชิงพื้นที่มีความแม่นยำและอัปเดทอยู่เสมอ นอกจากนี้ องค์กรยังสามารถเลือกใช้แหล่งข้อมูลจากพันธมิตรภายนอกเพิ่มเติม เช่น Cotality, Dun & Bradstreet, HG Insights, S&P Global และ ZoomInfo ได้อีกด้วย
  • แดชบอร์ด Vertex AI และเครื่องมือปรับแต่งโมเดล: แดชบอร์ด Vertex AI ช่วยให้องค์กรสามารถติดตามการใช้งานโมเดล AI, ปริมาณการทำงาน, ความหน่วงเวลา และการแก้ไขข้อผิดพลาด พร้อมทั้งความสามารถในการมองเห็นและการควบคุมที่ดียิ่งขึ้น ในขณะเดียวกัน เครื่องมือปรับแต่งโมเดล Vertex AI ก็ใช้ความเข้าใจเฉพาะด้านของ Google ในโมเดล Gemini เพื่อกำหนดทิศทางการค้นหาไปยังโมเดลและเครื่องมือที่มีประสิทธิภาพที่สุดโดยอัตโนมัติ อ้างอิงตามความต้องการในด้านคุณภาพ ความเร็ว และต้นทุนขององค์กร
  • Live API: เพื่อเปิดโอกาสให้การโต้ตอบแบบสนทนาเกิดขึ้นอย่างเรียลไทม์ Live API จึงนำเสนอการสตรีมในรูปแบบเสียงและวิดีโอให้กับโมเดล Gemini โดยตรง ซึ่งช่วยให้องค์กรสามารถใช้ AI agent ในการประมวลผลและตอบสนองต่อสื่อหลากหลายรูปแบบได้ในทันที เปิดประตูสู่ความเป็นไปได้ใหม่ๆ สำหรับแอปพลิเคชันที่มีหลากหลายมิติ และมีการโต้ตอบที่สมจริง
ขยายขีดความสามารถของ Vertex AI เพื่อสนับสนุน multi-agent 

Vertex AI คือแพลตฟอร์ม AI สำหรับนักพัฒนาที่เปิดกว้างมากที่สุด อีกทั้งยังเป็นรายแรกที่รองรับโซลูชันแบบ multi-agent อย่างแท้จริง (กล่าวคือการเปิดโอกาสให้ AI หลายตัวสามารถทำงานร่วมกันได้) AI agent คือระบบอัจฉริยะที่มีความสามารถในการให้เหตุผล วางแผน และจดจำข้อมูล พร้อมทั้งสามารถทำการวิเคราะห์ล่วงหน้าได้หลายขั้นตอน และทำงานข้ามระบบหรือซอฟต์แวร์ต่างๆ ได้อย่างไร้รอยต่อเพื่อดำเนินงานแทนคุณภายใต้การกำกับดูแลของคุณเอง

ขีดความสามารถใหม่ๆ ที่จะช่วยให้องค์กรก้าวเข้าสู่ระบบนิเวศแบบ multi-agent ได้ ไม่ว่าจะอยู่ในจุดไหนในการใช้งาน AI หรือเลือกใช้ชุดเทคโนโลยีแบบใดก็ตาม มีดังนี้:

  • Agent Development Kit (ADK): เฟรมเวิร์กโอเพนซอร์สตัวใหม่จาก Google Cloud ที่ช่วยให้องค์กรสามารถพัฒนา ระบบ multi-agent ได้ง่ายขึ้น พร้อมคงความสามารถในการควบคุมพฤติกรรมของ AI agent ได้อย่างแม่นยำ โดย ADK ช่วยให้สามารถสร้าง AI agent ได้ด้วยโค้ดที่เข้าใจง่ายและมีความยาวไม่ถึง 100 บรรทัด นอกจากนี้ ADK ยังรองรับ Model Control Protocol (MCP) ซึ่งเปิดโอกาสให้นักพัฒนาสามารถเชื่อมต่อเครื่องมือต่างๆ เข้ากับระบบได้อย่างสะดวก
  • Agent2Agent (A2A) protocol: Google Cloud เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่พัฒนาโพรโทคอล A2A แบบเปิด เพื่อรองรับ multi-agent ecosystem ซึ่งจะช่วยให้ AI agent สามารถสื่อสารกันได้ด้วยภาษากลางเดียวกันแม้จะถูกสร้างขึ้นจากคนละองค์กร และทำงานบนชุดเทคโนโลยีที่แตกต่างกันก็ตาม ปัจจุบันมีพันธมิตรมากกว่า 50 รายที่ร่วมพัฒนาโพรโทคอลนี้ ไม่ว่าจะเป็น Accenture, Deloitte, Salesforce, SAP และ ServiceNow สะท้อนให้เห็นถึงวิสัยทัศน์ร่วมในการสร้างระบบ multi-agent ที่ทำงานร่วมกันได้อย่างราบรื่น
  • Agent Garden: Agent Garden คือชุดตัวอย่าง และเครื่องมือที่พร้อมใช้งาน ซึ่งสามารถเข้าถึงได้โดยตรงผ่าน ADK ช่วยให้องค์กรสามารถเชื่อมต่อ AI agent ของตนเข้ากับตัวเชื่อมต่อที่สร้างไว้ล่วงหน้ากว่า 100 ตัว อย่าง API ที่กำหนดเอง เวิร์กโฟลว์การรวมระบบ หรือข้อมูลที่จัดเก็บในระบบคลาวด์ เช่น BigQuery และ AlloyDB

ไม่ว่าองค์กรจะเลือกสร้าง AI agent แบบไหน Google Cloud ก็พร้อมเชื่อมต่อ agent เหล่านั้นกับบริษัทชั้นนำด้านข้อมูลและแอปพลิเคชันระดับองค์กรอื่นๆ ได้อย่างไร้รอยต่อ

Google Agentspace: เสริมพลังให้พนักงานทุกคนด้วย AI

จากที่ได้มีประกาศออกไปเป็นครั้งแรกในเดือนธันวาคม ปี 2024 Google Agentspaceได้นำบริการค้นหาระดับองค์กรที่มีคุณภาพระดับ Google, AI สำหรับการสนทนา, โมเดล Gemini และ third-party agent มารวมเข้าไว้ด้วยกัน ซึ่งช่วยเสริมพลังให้พนักงานสามารถค้นหาและสังเคราะห์ข้อมูลภายในองค์กร สนทนากับ AI_agent และดำเนินการต่างๆ ผ่านแอปพลิเคชันระดับองค์กรได้อย่างง่ายดาย 

ตัวอย่างเช่น พนักงานสามารถใช้ Google Agentspace เพื่อเข้าถึง AI_agent ที่พัฒนาโดย Google อย่าง NotebookLM ซึ่งช่วยให้พวกเขาสามารถอัปโหลดแหล่งข้อมูลหลายประเภท เช่น PDFs, Google Docs, URLs ของเว็บไซต์, และวิดีโอจาก YouTube เพื่อสรุปเนื้อหา ตั้งคำถามเกี่ยวกับข้อมูลเหล่านั้น และจัดรูปแบบคำตอบให้ตรงตามที่ต้องการ

ขีดความสามารถใหม่ๆ ของ Google Agentspace ซึ่งเปิดตัวในงาน Next ‘25 มีไฮไลท์สำคัญดังนี้:

  • การเชื่อมต่อกับ Chrome Enterprise: สิ่งนี้จะช่วยให้พนักงานสามารถค้นหาและเข้าถึงทรัพยากรทั้งหมดขององค์กรได้โดยตรงจากช่องค้นหาใน Chrome ทำให้การทำงานราบรื่นยิ่งขึ้นและช่วยเพิ่มประสิทธิภาพในการทำงานอย่างเห็นได้ชัด
  • Agent Gallery: สิ่งนี้จะช่วยให้พนักงานสามารถดู AI_agent ทั้งหมดที่มีอยู่ในองค์กรได้แบบครอบคลุม ไม่ว่าจะเป็น AI_agent จาก Google ทีมงานภายใน หรือพันธมิตรภายนอก ทำให้การค้นหาและใช้งานเป็นเรื่องง่ายและสะดวกยิ่งขึ้น
  • Agent Designer: อินเทอร์เฟซแบบที่ไม่ต้องเขียนโค้ดสำหรับการสร้าง AI_agent ที่ปรับแต่งเองได้ตามความต้องการ จะช่วยให้งานประจำในแต่ละวันสามารถดำเนินการได้เองโดยอัตโนมัติ ซึ่งไม่ว่าพนักงานจะมีพื้นฐานด้านเทคนิคมากน้อยแค่ไหนก็สามารถปรับแต่ง AI_agent ให้เข้ากับกระบวนการทำงานและความต้องการเฉพาะของตนเองได้อย่างง่ายดาย
  • Idea Generation Agent: AI_agent ตัวนี้ใช้กรอบการทำงานแบบการแข่งขันเพื่อให้สามารถจัดอันดับแนวคิดต่างๆ ได้อย่างมีประสิทธิภาพ โดยอิงตามเกณฑ์ที่พนักงานกำหนดไว้ พร้อมทั้งช่วยให้พนักงานสามารถต่อยอดหรือสร้างสรรค์ไอเดียใหม่ๆ ได้อย่างง่ายดาย
  • Deep Research Agent: AI_agent ตัวนี้จะทำหน้าที่ค้นคว้าหัวข้อที่ซับซ้อนแทนพนักงาน และสรุปข้อมูลเชิงลึกออกมาเป็นรายงานที่ครอบคลุม เข้าใจง่าย และพร้อมใช้งาน
  • การค้นหาผ่าน Google Agentspace บน GDC: ระบบการค้าหานี้จะเริ่มเปิดให้ทดลองใช้งานแบบพรีวิวสำหรับสาธารณะในช่วงไตรมาสที่ 3 ของปี 2025 โดยจะช่วยให้พนักงานในองค์กรสามารถเข้าถึงข้อมูลทั้งหมดได้อย่างครบถ้วนจากจุดเดียว ซึ่งมีความปลอดภัย และมีการควบคุมสิทธิ์การเข้าถึงอย่างรัดกุม