อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้น

ก่อนหน้านี้เวลาเราพูดถึง Text-to-Speech หลายคนจะนึกถึงเครื่องมือที่เอาข้อความมาแปลงเป็นเสียง แต่สิ่งที่ Google กำลังทำกับ Gemini 3.1 Flash TTS ดูจะไปไกลกว่านั้น สิ่งที่เปลี่ยนไปไม่ใช่แค่คุณภาพเสียง แต่เป็นวิธีคิดของการสร้างเสียงทั้งหมด จากเดิมที่เราแค่พิมพ์ข้อความแล้วรอระบบพูดออกมา กำลังกลายเป็นกระบวนการที่มีทั้งฉาก บริบท ตัวละคร จังหวะ สำเนียง และการกำกับอารมณ์อยู่ในนั้นด้วย บทความนี้เลยจะพามา อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้นครับ

ถ้ามองแบบคนทำคอนเทนต์ นี่ไม่ใช่แค่อัปเดตฟีเจอร์เล็ก ๆ แต่คือสัญญาณว่า AI เสียงกำลังขยับจากหมวด utility tool ไปสู่ creative production tool มากขึ้นเรื่อย ๆ และนั่นทำให้ Gemini 3.1 Flash TTS น่าสนใจมากเป็นพิเศษ เพราะมันไม่ได้แข่งกันแค่ว่าเหมือนเสียงมนุษย์มากแค่ไหน แต่แข่งกันที่คำว่าเราสามรถคุมเสียงนั้นได้ลึกแค่ไหนต่างหากครับ

Google อธิบายว่า Gemini 3.1 Flash TTS คือโมเดล Text-to-Speech รุ่นใหม่ที่เน้นทั้งคุณภาพเสียง ความ expressive และความสามารถในการควบคุมเสียงอย่างละเอียด โดยเริ่มเปิดให้ใช้งานแบบ preview สำหรับนักพัฒนาผ่าน Gemini API และ Google AI Studio สำหรับฝั่งองค์กรบน Vertex AI และสำหรับผู้ใช้ Workspace ผ่าน Google Vids ด้วยเช่นกัน

อ่านเพิ่มเติม Google Vids เครื่องมือสร้างวิดีโอจาก Google ที่ไม่ได้มาแทน Editor แต่กำลังแทนทั้งระบบการทำงาน

จุดสำคัญของโมเดลนี้ไม่ใช่แค่การอ่านข้อความออกมาให้ฟัง แต่คือการให้ผู้ใช้สามารถใช้ภาษาธรรมชาติในการกำหนดสไตล์ น้ำเสียง จังหวะ สำเนียง และโทนของเสียงได้ ซึ่ง TTS ตัวนี้รองรับทั้ง single-speaker และ multi-speaker audio และถูกออกแบบมาสำหรับงานที่ต้องการการอ่านตามข้อความอย่างแม่นยำ แต่ยังคงมีการควบคุมด้านสไตล์และเสียงในระดับละเอียด เช่น พอดแคสต์ หนังสือเสียง หรือเสียงพากย์ที่มีหลายตัวละคร

อย่างที่บอกว่า Google ทำให้เสียงดีขึ้น คุมได้มากขึ้น รองรับ 70+ ภาษา และมี audio tags เพิ่มเข้ามา แต่สิ่งที่ทำให้ Gemini 3.1 Flash TTS ต่างจากภาพจำเดิมของ TTS คือมันไม่ได้หยุดอยู่ที่การแปลงข้อความเป็นเสียง แต่เริ่มเข้าใกล้สิ่งที่เรียกได้ว่า directed speech หรือเสียงที่ถูกกำกับครับ

จากเดิมที่คนใช้เครื่องมือ TTS มักคิดเป็นเส้นตรงว่าเลือกเสียง ใส่ข้อความ กดสร้าง แล้วจบ ตอนนี้ UI ใหม่กำลังบังคับให้คนเริ่มคิดแบบคนทำโปรดักชันมากขึ้น เริ่มจากการกำหนดฉาก กำหนดบริบทของบทสนทนา กำหนดว่าใครพูด จากนั้นค่อยลงไปสู่การกำหนดบุคลิกของเสียง สไตล์การพูด จังหวะ และสำเนียง ก่อนจะให้ระบบสร้างผลลัพธ์ออกมา

พูดอีกแบบก็คือ เปลี่ยนจากพิมพ์แล้วได้เสียง ไปเป็นคิดฉาก สร้างบทบาท กำกับการส่งอารมณ์ แล้วค่อยได้ performance ออกมาครับ

คุณภาพเสียงที่ดีขึ้น เป็นแค่จุดเริ่มต้น ไม่ใช่จุดจบ

นอกจากนั้น Google ระบุว่า Gemini 3.1 Flash TTS เป็นโมเดลที่มีความเป็นธรรมชาติและ expressive มากที่สุดของบริษัท ณ เวลาที่ประกาศเปิดตัว และบน Artificial Analysis TTS leaderboard โมเดลนี้ทำ Elo score ได้ 1,211 อีกทั้ง Google ยังชี้ว่าโมเดลนี้อยู่ในจุดที่ได้สมดุลระหว่างคุณภาพเสียงกับต้นทุนใช้งาน พร้อมรองรับ multi-speaker dialogue, 70+ ภาษา และการควบคุมเชิงสร้างสรรค์ผ่าน natural language ได้ละเอียดขึ้น

อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้น

แต่ถ้ามองในเชิงการใช้งานจริง สิ่งที่น่าสนใจกว่าคำว่าเสียงดี คือคำว่าเสียงดีแล้วคุมได้ เพราะในโลกคอนเทนต์ เสียงที่ฟังดีอย่างเดียวอาจยังไม่พอ ถ้าเราไม่สามารถทำให้มันเข้ากับ mood ของคลิป โทนของแบรนด์ หรือจังหวะของเรื่องเล่าได้จริงครับ

หน้าจอใหม่ของ Gemini 3.1 Flash TTS ใน Google AI Studio ทำให้เห็นชัดว่าระบบกำลังถูกออกแบบให้ผู้ใช้ทำงานใน 3 ระดับพร้อมกัน คือระดับฉาก ระดับตัวละคร และระดับการแสดงเสียง และถ้ามองจากหน้าจอ Google AI Studio จะเห็นว่าระบบถูกแบ่งออกเป็น 2 ฝั่งชัดเจน ฝั่งกลางคือ พื้นที่สร้างเสียง ส่วนฝั่งขวาคือ พื้นที่ควบคุมการแสดงของเสียง สองส่วนนี้ทำงานคู่กันเสมอ ฝั่งหนึ่งเป็นเหมือนบท อีกฝั่งเป็นเหมือนผู้กำกับ และผลลัพธ์สุดท้ายคือ performance ที่ได้ออกมา

ภาพแสดงหน้าจอ Google AI Studio หลัง อัพเดท Gemini 3.1 Flash TTS จะเห็นว่าระบบถูกแบ่งออกเป็น 2 ฝั่งชัดเจน ฝั่งกลางคือ พื้นที่สร้างเสียง ส่วนฝั่งขวาคือ พื้นที่ควบคุมการแสดงของเสียง
ภาพแสดงหน้าจอ Google AI Studio หลัง อัพเดท Gemini 3.1 Flash TTS จะเห็นว่าระบบถูกแบ่งออกเป็น 2 ฝั่งชัดเจน ฝั่งกลางคือ พื้นที่สร้างเสียง ส่วนฝั่งขวาคือ พื้นที่ควบคุมการแสดงของเสียง

ส่วนที่ 1: พื้นที่สร้างเสียง จุดที่คุณเขียนบท

พื้นที่ตรงกลางคือจุดที่สำคัญที่สุด เพราะมันคือที่ที่คุณใส่ทุกอย่างที่เกี่ยวกับเนื้อหา บริบท และโครงสร้างของเสียง

ในหน้าจอใหม่จะมีช่อง Scene แยกขึ้นมาอย่างชัดเจน ตัวอย่างที่ระบบใส่ไว้คือประมาณว่าฉากถนนที่คึกคักในตอนกลางคืน ซึ่งสะท้อนว่าระบบไม่ได้อยากรู้แค่ว่าคุณจะให้พูดอะไร แต่เริ่มอยากรู้ว่าเสียงนี้เกิดขึ้นในบริบทแบบไหนด้วย

ฟีเจอร์นี้สำคัญมาก เพราะเสียงเดียวกัน ถ้าพูดในฉากต่างกัน เช่น ในการสัมภาษณ์ พูดในโฆษณา หรือพูดในบทละครเด็ก อารมณ์ของผลลัพธ์ควรต่างกัน แม้ข้อความจะคล้ายกันก็ตาม การมี Scene จึงทำให้การสร้างเสียงเริ่มคล้ายการวาง mise-en-scène ในงานวิดีโอหรือการเขียน direction ให้คนพากย์ มากกว่าการใช้เครื่องแปลงข้อความแบบทั่วไปครับ

อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้น

อีกช่องที่เพิ่มเข้ามาคือ Sample Context ช่องนี้หลายคนมองข้าม แต่จริง ๆ สำคัญมาก มันคือการบอกว่า ก่อนหน้านี้เกิดอะไรขึ้น ซึ่งตัวอย่างในระบบบอกประมาณว่า ผู้พูดคนก่อนเพิ่งเล่าเรื่องยาวจบไป นี่เป็นรายละเอียดที่หลายคนอาจมองข้าม แต่จริง ๆ สำคัญมากสำหรับงานที่มีบทสนทนา เพราะมันทำให้ AI ไม่ได้อ่านข้อความเป็นประโยคโดด ๆ แต่รับรู้ว่าก่อนหน้านั้นเกิดอะไรขึ้น ผลคือ AI จะไม่พูดแบบเริ่มใหม่ทุกครั้ง แต่จะต่ออารมณ์ ให้เนียนขึ้น เหมาะมากกับงานที่เป็น dialogue หรือ storytelling

Google เองก็อธิบายในเอกสารว่า TTS รุ่นนี้สามารถใช้ natural language เพื่อ structure interactions และ guide style, accent, pace, tone ของเสียงได้ ดังนั้น Sample Context จึงเป็นเหมือนสะพานระหว่างตัวบทกับสถานการณ์จริง ช่วยให้ผลลัพธ์ไม่แข็ง ไม่ตัดขาดจากกันเป็นท่อน ๆ แบบ TTS รุ่นเก่าครับ

ตรงนี้คือ core ของระบบ จากเดิมที่เป็นแค่ text ธรรมดา แต่ในโหมด Composer ตอนนี้ถูกแยกเป็น Speech Block + Speaker คุณสามารถกำหนดได้ว่า ใครพูดอะไร และเพิ่มหลาย speaker ได้ จะเห็นว่า interface ไม่ได้เป็นแค่กล่องข้อความยาวกล่องเดียวอีกต่อไป แต่ถูกแยกเป็น speech block พร้อมระบุว่าเป็น Speaker 1 และมีชื่อเสียงที่เลือกไว้ เช่น Zephyr ตรงนี้สะท้อนว่า Google ต้องการผลักให้ผู้ใช้คิดเป็นบล็อกการพูด คิดเป็น turn-taking และคิดเป็นบทสนทนา

อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้น

นี่จึงไม่ได้เป็นแค่ความสะดวกของหน้าตาโปรแกรม แต่คือสัญญาณว่าการสร้างบทพูดแบบสองคน สามคน หรือมากกว่านั้น กำลังกลายเป็น use case หลักของเครื่องมือนี้ครับ

ในช่อง Text คุณจะเห็นตัวอย่างแบบ [amused] สิ่งนี้เรียกว่า audio tags ซึ่ง Google ระบุว่า 3.1 Flash TTS เพิ่ม audio tags เพื่อให้ผู้ใช้ควบคุม vocal style, pace และ delivery ได้โดยฝังคำสั่งภาษาธรรมชาติลงไปในข้อความโดยตรง มันคือการ กำกับการแสดง ลงไปใน script โดยตรง แทนที่จะต้องไปตั้งค่าแยก คุณสามารถฝังอารมณ์ลงไปในประโยคได้เลย

นี่คือแกนกลางของความเปลี่ยนแปลงทั้งหมด เพราะทันทีที่เราสามารถใส่ tag อย่าง amused หรือ laughs หรือ whisper ลงไปในข้อความ ตัวข้อความก็ไม่ได้เป็นแค่สิ่งที่ต้องถูกอ่านอีกต่อไป แต่กลายเป็น annotated script หรือสคริปต์ที่มีคำกำกับการแสดงอยู่ในตัวครับ

ส่วนที่ 2: พื้นที่ฝั่งขวา พื้นที่ควบคุมเสียงเหมือนผู้กำกับ

ถ้าฝั่งกลางที่เราเพิ่งเล่าไปคือการเขียนบท ดังนั้นฝั่งขวาคือการกำกับว่าบทนั้นจะถูกเล่นยังไง

Temperature เป็นค่าที่หลายคนคุ้นจาก AI text ใน TTS มันมีผลกับความแปรผันของเสียง เช่น จะตรงตาม script เป๊ะ หรือมี variation เล็ก ๆ ค่าเยอะคือ expressive มากขึ้น ค่าต่ำคือคุมได้แน่นขึ้น

  • Audio Profile สร้าง Persona ของเสียง คือจุดเริ่มต้นของการสร้างตัวละคร ไม่ใช่แค่เลือกเสียง

หนึ่งในส่วนที่น่าสนใจมากคือหน้า Speaker settings ที่มีช่อง Audio Profile ให้เราพิมพ์บรรยาย persona ของเสียงได้ เช่น warm, energetic, professional จากมุมมองคนทำคอนเทนต์ ฟีเจอร์นี้เปลี่ยนโจทย์จากการถามว่าจะใช้เสียงไหน ไปเป็นการถามว่าอยากให้ตัวละครนี้เป็นคนแบบไหนครับ

และนี่คือความต่างที่ใหญ่มาก เพราะเวลาทำงานจริง ปัญหาของคนจำนวนมากไม่ใช่หาไม่เจอว่า male voice หรือ female voice แต่คือหาไม่เจอว่าเสียงแบบไหนทำให้คอนเทนต์ดูน่าเชื่อถือ ดูเป็นมิตร หรือดูตื่นเต้นโดยไม่เวอร์เกินไป Audio Profile จึงเป็นภาษากลางระหว่างความคิดเชิงครีเอทีฟกับระบบ AI

  • Director’s Note โหมดกำกับเสียงเต็มรูปแบบ ส่วนนี้แบ่งออกเป็น 3 แกนหลัก

ส่วนที่เปลี่ยนเกมที่สุดของ UI ใหม่น่าจะเป็น Director’s Note ที่แยกออกเป็น Style, Pace และ Accent อย่างชัดเจน

อัพเดท Gemini 3.1 Flash TTS กับ Text-to-Speech ที่ละเอียดมากขึ้น
  1. Style วิธีส่งอารมณ์
    มีตัวเลือกอย่าง Vocal Smile, Newscaster, Whisper, Empathetic, Promo/Hype และ Deadpan ซึ่งแต่ละตัวไม่ได้หมายถึงแค่ mood แต่หมายถึงวิธีส่งสารที่ต่างกัน

    Newscaster ให้ความรู้สึกมืออาชีพ ชัด ถ้อยคำคมและมี cadence แบบผู้ประกาศข่าว ขณะที่ Whisper เป็นความใกล้ชิด เบา และเหมือนพูดใกล้ไมค์ ส่วน Empathetic ให้โทนอุ่นและเข้าใจคนฟัง ขณะที่ Promo/Hype ให้พลังงานสูง เหมาะกับงานขาย งานโปรโมต หรืองานเปิดตัวสินค้า

    นี่คือสิ่งที่ทำให้ Gemini 3.1 Flash TTS น่าสนใจมากในเชิงการตลาด เพราะมันไม่ได้ให้เราแค่สร้างเสียง แต่ให้เราเลือก rhetoric หรือวิธีโน้มน้าวคนฟังผ่านน้ำเสียงได้ด้วย
  2. Pace จังหวะของการพูด
    ตัวเลือกในหมวด Pace เช่น Natural, Rapid Fire, The Drift และ Staccato บอกชัดว่า Google เข้าใจว่าความเร็วในการพูดไม่ใช่แค่เรื่องฟังทันหรือไม่ทัน แต่เป็นเรื่องอารมณ์ของคอนเทนต์ด้วย

    Rapid Fire อาจเหมาะกับงานขาย งานเล่าอย่างมีพลัง หรือคลิปสั้นที่ต้องดึงความสนใจเร็ว ส่วน The Drift ซึ่งอธิบายว่าไหลช้า มีลมหายใจ มี pause ยาว ดูจะเหมาะกับงานเล่าเรื่อง งานสะท้อนความคิด หรือ content ที่ต้องการพื้นที่ทางอารมณ์มากกว่าครับ
  3. Accent เปลี่ยนจากการเลือกภาษามาเป็นการเลือก positioning ของเสียง
    ในหมวด Accent มีตัวเลือกอย่าง American แบบทั่วไป American Valley American South, British RP, British Brixton, Transatlantic และ Australian สิ่งนี้น่าสนใจเพราะมันทำให้การเลือกสำเนียงไม่ใช่แค่เรื่องความถูกต้องทางภาษา แต่เป็นเรื่อง brand image และ audience fit ไปด้วย

    สำหรับบางแบรนด์ สำเนียงแบบ British RP อาจทำให้ภาพลักษณ์ดูพรีเมียมขึ้น ขณะที่ American Gen อาจเข้าถึงคนหมู่มากง่ายกว่า ส่วนบาง use case อย่าง character-based content หรือ branded storytelling ก็อาจใช้สำเนียงเป็นส่วนหนึ่งของการสร้างบุคลิกของตัวละครได้เลย

นี่เป็นจุดที่คนทำคอนเทนต์น่าจะเห็นภาพชัดที่สุดว่า AI เสียงเริ่มเข้าใกล้การเป็นเครื่องมือกำกับ performance แล้วจริง ๆ ครับ

จะเห็นว่า voice list ไม่ได้ถูกนำเสนอแบบพื้น ๆ แต่มีการบอก texture เช่น Soft, Friendly, Gravelly, Smooth, Firm และบอกระดับ pitch ด้วย เช่น Higher pitch, Lower pitch, Lower middle pitch สิ่งนี้ช่วยให้การเลือกเสียงมีมิติขึ้นมาก เพราะเสียงที่เหมาะกับโฆษณา เครื่องมือสอนงาน พอดแคสต์ หรือ character dialogue ย่อมไม่เหมือนกัน

แทนที่จะเลือกเพียงว่าอยากได้เสียงผู้หญิงนุ่ม ๆ หรือผู้ชายเข้ม ๆ ตอนนี้ผู้ใช้สามารถเริ่มคิดได้ละเอียดขึ้นว่าเสียงนี้ต้องฟังแล้วน่าไว้ใจ หรือฟังแล้วมีแรงขับ หรือฟังแล้วเหมือนเพื่อนคุยด้วย

ถ้าจะสรุปให้เห็นภาพง่ายที่สุด ฝั่งกลางคือ Script + Context ฝั่งขวาคือ Direction + Performance และสิ่งที่เกิดขึ้นคือ คุณไม่ได้ใช้ AI เพื่ออ่านออกเสียง แต่กำลังใช้ AI เพื่อแสดงผ่านเสียง และนั่นคือเหตุผลว่าทำไมเครื่องมือนี้ถึงใกล้คำว่า creative direction มากขึ้นทุกที

การใช้ Gemini 3.1 Flash TTS ในรูปแบบใหม่นี้ไม่ควรเริ่มที่ข้อความ แต่ควรเริ่มที่เจตนาของงานก่อน เพราะถ้าคุณเริ่มจากเขียนประโยคอย่างเดียว คุณจะใช้มันได้แค่ระดับ TTS ทั่วไป แต่ถ้าคุณเริ่มจากการคิดว่างานนี้ต้องการอารมณ์แบบไหน ต้องการความสัมพันธ์แบบไหนระหว่างผู้พูดกับผู้ฟัง และต้องการ pacing แบบไหน คุณจะเริ่มใช้ศักยภาพของมันได้จริง

ขั้นแรกคือกำหนด Scene ให้ชัด ว่างานนี้คือโฆษณา บทสัมภาษณ์ บทสนทนาในคลิปสั้น เสียงเล่าในสารคดี หรือเสียงตัวละครในแอป จากนั้นใส่ Sample Context ถ้างานมีความต่อเนื่องหรือมีคนพูดก่อนหน้า เพื่อให้ระบบจับอารมณ์ต่อจากสิ่งที่เกิดขึ้นแล้ว

หลังจากนั้นค่อยแยกบทพูดเป็น speech block และกำหนดว่าแต่ละ block เป็นใครพูด การทำแบบนี้สำคัญมากในงานสองคนคุยกัน เพราะช่วยให้จังหวะและคาแรกเตอร์ไม่ปนกัน จากนั้นเข้าไปกำหนด Speaker settings โดยเริ่มจาก Audio Profile เพื่อวาง persona ของเสียงแต่ละตัว แล้วค่อยกำหนด Director’s Note ด้วย Style, Pace และ Accent ให้สัมพันธ์กับเป้าหมายของชิ้นงาน

ขั้นสุดท้ายคือเขียนข้อความพร้อม inline tags หรือ audio tags ในจุดที่ต้องการให้อารมณ์หรือจังหวะเปลี่ยน เช่น ช่วงประโยคที่ต้องการให้ยิ้ม หัวเราะ กระซิบ หรือเน้นพิเศษ แล้วค่อยกด Run เพื่อฟังผลลัพธ์ ความน่าสนใจคือกระบวนการนี้ทำให้คนใช้เริ่มคิดเหมือนคนเขียนสคริปต์ คนกำกับ และคนตัดสินใจในเวลาเดียวกัน

ถ้ามองในด้านการใช้งานจริง กลุ่มที่น่าจะเห็นประโยชน์ชัดที่สุดคือคนทำคอนเทนต์ นักการตลาด นักพัฒนา และทีมที่ต้องสร้างเสียงจำนวนมากอย่างต่อเนื่อง สำหรับคนทำคอนเทนต์ มันช่วยลดภาระการอัดเสียงซ้ำหลายรอบ โดยเฉพาะเวลาต้องการโทนที่ต่างกันในหลายคลิป หรืออยากทดสอบเวอร์ชัน A/B ของ voiceover โดยใช้สคริปต์เดียวกันแต่เปลี่ยนวิธีพูด

สำหรับนักการตลาด มันเปิดทางให้แคมเปญเดียวกันมีหลายโทนเสียงได้ง่ายขึ้น เช่น เวอร์ชันขาย เวอร์ชันอธิบาย เวอร์ชันอบอุ่น หรือเวอร์ชันดึงอารมณ์ โดยไม่ต้องผ่านกระบวนการ production เต็มรูปแบบทุกครั้ง สำหรับนักพัฒนาและธุรกิจ มันไปได้ไกลกว่างานโฆษณา เพราะสามารถใช้สร้างเสียงสำหรับ AI agents, training content, customer communication, onboarding, explainers หรือแม้แต่ระบบโต้ตอบที่ต้องการบุคลิกเสียงเฉพาะตัวได้

ขอบคุณภาพจาก Shutterstock AI Generator
a cinematic scene of a content creator sitting in front of a computer, controlling AI-generated voice like a film director, holographic sound waves and voice controls floating in the air, UI panels showing speech blocks, audio tags, and voice settings, glowing blue and purple neon tones, futuristic workspace, minimal but premium, soft lighting, depth of field, ultra realistic, high detail, 16:9 composition

ถ้ามองภาพกว้างกว่านั้น การเปิดตัว Gemini 3.1 Flash TTS ทำให้เห็นชัดว่า Google กำลังวาง AI ecosystem ให้ครอบคลุมงานสร้างสรรค์มากขึ้นเรื่อย ๆ ทั้งข้อความ ภาพ วิดีโอ และเสียง โดยบทความเปิดตัวก็ระบุชัดว่าระบบนี้เชื่อมไปถึง AI Studio, Vertex AI และ Google Vids แล้ว

นั่นแปลว่าในอนาคตอันใกล้ การสร้าง asset สำหรับคอนเทนต์อาจไม่ใช่กระบวนการแยกส่วนอีกต่อไป แต่กลายเป็น workflow เดียวที่ข้อความ ภาพ วิดีโอ และเสียงทำงานร่วมกันได้มากขึ้น ซึ่งสำหรับนักการตลาดและครีเอเตอร์ นี่คือการเปลี่ยนจากใช้ AI เป็นตัวช่วยทีละจุด ไปสู่การใช้ AI เป็นระบบผลิตงานทั้งสายครับ

อีกประเด็นที่ Google เน้นคือเสียงทั้งหมดที่สร้างจาก Gemini 3.1 Flash TTS จะถูก watermark ด้วย SynthID ซึ่งเป็น watermark ที่แทรกอยู่ในตัวเสียงเพื่อให้สามารถตรวจจับได้ในภายหลัง เป้าหมายคือช่วยลดความเสี่ยงด้าน misinformation และการใช้เสียง AI ในทางที่ทำให้ผู้ฟังเข้าใจผิดว่าเป็นเสียงมนุษย์จริง

ตรงนี้สำคัญ เพราะยิ่งเครื่องมือสร้างเสียงดีขึ้นมากเท่าไร ประเด็นเรื่องความน่าเชื่อถือและการตรวจสอบย้อนกลับก็ยิ่งสำคัญมากขึ้นตามไปด้วย

บทเรียนที่สำคัญที่สุดของอัปเดตนี้ คือคนที่ได้เปรียบไม่ใช่คนมีเสียงดี แต่คือคนกำกับเสียงเป็น

ถ้าจะสรุปให้สั้นที่สุด Gemini 3.1 Flash TTS ไม่ได้เปลี่ยนแค่คำว่า Text-to-Speech แต่กำลังเปลี่ยนคำถามใหม่ทั้งหมด จากเดิมที่ถามว่า AI พูดได้เหมือนคนหรือยัง ไปเป็นเราสั่งให้ AI พูดแบบที่เราต้องการได้ละเอียดแค่ไหนแล้ว

และเมื่อคำถามเปลี่ยน ทักษะที่สำคัญก็เปลี่ยนตามไปด้วย ในโลกใหม่ของเครื่องมือแบบนี้ คนที่ได้เปรียบอาจไม่ใช่คนที่มีเสียงตัวเองดีที่สุด ไม่ใช่คนที่มีสตูดิโอใหญ่ที่สุด แต่อาจเป็นคนที่เข้าใจ mood เข้าใจ scene เข้าใจ persona และรู้ว่าจะกำกับจังหวะของคำพูดอย่างไรให้ตรงกับเป้าหมายของงาน

พูดอีกแบบคือ ยุคของ AI เสียงอาจไม่ได้ลดคุณค่าของความคิดสร้างสรรค์ลงเลย แต่มันกำลังย้ายคุณค่าจากการเปล่งเสียง ไปสู่การออกแบบเสียงแทน สุดท้ายแล้ว สิ่งที่น่าสนใจที่สุดอาจไม่ใช่แค่ว่า AI พูดได้สมจริงขึ้นแค่ไหน แต่อยู่ที่ว่าจากนี้ไป คนทำคอนเทนต์ นักการตลาด และธุรกิจ จะเริ่มใช้เสียงเป็นภาษาทางกลยุทธ์ได้ลึกขึ้นแค่ไหนต่างหาก ทุกวันนี้เทคโนโลยีพัฒนาขึ้นไปทุกวัน ถ้าใช้ให้ดีก็จะเกิดประโยชน์ แต่ถ้าใช้ผิดทางก็จะเกิดโทษครับ

ผมหวังว่าทุกคนจะนำการพัฒนาของเทคโนโลยีและบทความนี้ไปใช้ให้เกิดประโยชน์ ไม่มากก็น้อยนะครับ ฝากติดตามบทความด้านการใช้ AI แบบนี้ด้วยนะครับ หรือใครอยากให้นำ AI ตัวไหนมาเล่าให้ฟัง สามารถคอมเมนต์บอกกันได้เลยครับ

สำหรับนักอ่านที่ชอบ และ อยากอ่านบทความเกี่ยวกับการตลาด, Data และ AI เพิ่มเติม สามารถติดตามได้จาก เพจการตลาดวันละตอน รวมไปถึง Twitter Instagram YouTube ของการตลาดวันละตอนได้เลยนะครับ แล้วพบกันใหม่ในบทความหน้าครับ

Source: [1] [2]

มิ้นนะคะ ● ⋏ ● เป็น Senior Marketing Content Creator & Data Researcher ของการตลาดวันละตอน ٩(◕‿◕)۶ I'm Content Writer, Digital Marketer, Ads optimizer ตั้งใจสรรสร้างทุกบทความ หวังว่าทุกคนจะได้ประโยชน์ และ ชอบนะคะ

Leave a Reply

Your email address will not be published. Required fields are marked *