เริ่มต้นเรามาทำความเข้าใจถึงการใช้งาน AI Model ต่างๆ จากตัว Hugging Face ซึ่งเป็นแพลตฟอร์มที่รวม AI Model เยอะแยะในโมเดลนี้ ซึ่งในบทความนี้จะไม่ได้ใช้ทุก Options ของเค้านะคะ เนื่องจากมีความหลากหลาย ก็เลยจะเป็นที่มาของบทความ Part1 นี้สำหรับผู้เริ่มต้นใช้งาน เพื่อให้เห็นภาพ
ซึ่งเราสามารถนำตัวโค้ดของเราที่ทำ AI โมเดลเสร็จเรียบร้อยแล้วไปแปะเพื่อนำไปใช้ทรัพยากร GPU ที่เว็บไซต์หรือแพลตฟอร์มของเค้าได้ด้วย
#1 การใช้งาน Hugging Face ในรูปแบบต่างๆ
ทีนี้ตอนที่เค้าใช้งาน Hugging Face ก็จะใช้กันอยู่ประมาณ 5 วัตถุประสงค์หลักๆ ดังนี้ค่ะ
1. Model Hub:
ใช้เพื่อค้นหา หรือเรามีโมเดล AI ที่อยากแบ่งปันให้คนอื่นใช้บ้างก็จะเข้ามาแชร์กันใน Model Hub นี้ ซึ่งเดี๋ยวตอนที่เราเข้าไปที่เว็บก็จะเห็นว่าเป็นโมเดลเลย โดยโมเดลข้างในจะมี 2 กลุ่มใหญ่ๆ ก็คือ Base Model ซึ่งเป็นโมเดลพื้นฐานต่างๆ ในการแชท ในการรู้จำภาพ ในการสร้างภาพ หลังจากนั้นหากมีคนมาพัฒนาต่อยอดมีการ Fine Tune ให้เป็นงานที่เป็นงานเฉพาะ เช่น เรื่องของการตรวจจับความผิดปกติในระบบโซล่าเซลล์ หรือเรื่องของการตอบคำถามของ Product และ Brand ของเรา ก็จะเอา Base Model มา Develop ต่อแล้วใส่กลับเข้าไป
2. Transformer Library:
โดยในส่วนของตัว Hugging Face ก็จะมี Lib ที่ชื่อ Transformer ซึ่งเป็น Lib ที่เราสามารถเขียนโค้ดไพธอน เพื่อจะเรียกใช้โมเดลบน Hugging Face ซึ่งจะแบ่งเป็น 2 หมวดหลัก คือ การเรียกใช้บนแพลตฟอร์ม หรือบน Cloud ของ Hugging Face ไปเลย ซึ่งเรียกว่าเป็นการใช้งานในรูปแบบ Online โดยตัวโมเดลจะไม่ได้อยู่ในเครื่องเรา แต่จะอยู่ที่ Hugging Face โดยหลังจากที่เราส่งตัวโมเดลไปให้แพลตฟอร์มประมวลผลเสร็จ ก็จะได้เป็น Response หรือ Result กลับมาให้เรา เช่น ถ้าเราต้องการสรุปข้อความยาวๆ มาให้สั้นลง เราก็สามารถไปเลือกโมเดลประเภท Text Summarize ซึ่งก็จะไปเรี่ยกใช้โมเดลบรแพลตฟอร์มนี้มาประมวลผลแล้วได้เป็นตัวสรุปสั้นๆ มาให้เรา (โดยเราสามารถ Download โมเดลที่เป็นแบบ Public มาลงในเครื่องแล้วนำมาใช้บนเครื่องของเราได้ ถ้าเราไม่อยากทำแบบออนไลน์) โดย Transformer Library จะสามารถรองรับได้ทั้ง Pytorch และ Tensorflow
การเรียกใช้ Hugging Face แบบออนไลน์ ซึ่งจะเป็นในส่วนของหน้าต่างที่ให้เราสามารถทดลองใช้งานได้ โดยถ้าเราพัฒนา AI Model ของเราเสร็จเราก็สามารถนำขึ้นไปวางบน Gradio หรือ Steamlit เพื่อให้ผู้อื่นเข้ามาทดลองใช้งาน AI Model ของเราได้เลย
5. Inference API:
เป็นการเรียกใช้งานโมเดลผ่าน API (อาจไม่สามารถเรียกผ่าน API ได้ทุกโมเดล) โดยในบทความนี้เราจะทดลองใช้ Make.com เรียกใช้งานโมเดลต่างๆ ของทาง Hugging Face ผ่าน API
ซึ่งการใช้งาน Hugging Face ถ้าเราใช้เป็น Plan Free จะมีโควต้ามาให้ ว่าเราสามารถใช้ได้เท่าไหร่ใน 1 วัน แต่ถ้าเราอยากใช้งานได้เยอะขึ้นก็จะมีค่าใช้จ่ายประมาณ 9 USD ต่อเดือน ก็จะเป็นรุ่นโปร ซึ่งเร็วขึ้น และใช้ได้นานขึ้นต่อวัน นอกจากนี้เรายังสามารถรันโมเดลออนไลน์ด้วยพลังของ GPU ได้
ให้เรา Click ไปที่เครื่องหมาย “+” Add another module ที่อยู่เป็นติ่งทางขวามือไอคอน Line แล้ว Search หา Hugging Face
หลังจากนั้นให้เลื่อนลงมาเพื่อเลือก “Create a Chat Completion (Prompt)” ซึ่งเป็นโมดูลสำหรับทำสรุป ตอบคำถาม (ทั้งนี้เราจะต้องเลือกโมเดลที่เค้าเปิด API ให้ใช้ ถึงจะสามารถใช้ร่วมกับ Line ได้)
Hi, I am Nick,,,,Panaya Sudta (●'◡'●)
Engineer during the daytime. Researcher at night. Reader in spare time. (❁´◡`❁) วิศวกร/นักวิจัย/ Market research ค่ะ หวังเป็นอย่างยิ่งว่าจะได้แชร์มุมมองกันนะคะ
FacebookFacebookXXLINELineถ้าย้อนกลับไปไม่กี่ปี การสร้างแอป คือสิ่งที่ฟังดูไกลตัวเกินกว่าจะทำเองได้ ต้องมีทีม ต้องเขียนโค้ด ต้องวางระบบหลังบ้าน และต้องคอยปรับแก้ไม่รู้จบ แต่วันนี้เทคโนโลยีเดินหน้าเร็วจนหลายอย่างที่เคยยาก กลายเป็นเรื่องง่ายอย่างน่าเหลือเชื่อ บทความนี้เลยจะพามารู้จัก และ สอนใช้ Google Opal สร้าง Mini App ง่าย ๆ แบบ No-Code ครับ ล่าสุด Google เพิ่งปล่อยเครื่องมือใหม่ชื่อ Google Opal AI ที่แทบไม่ต้องใช้ทักษะด้านโปรแกรมมิ่งเลย เพียงลากเส้น เชื่อม Step และบอกโจทย์ว่าอยากให้แอปทำอะไร ที่เหลือเป็นหน้าที่ของ AI ที่จะประกอบทุกอย่างให้จนเสร็จ ผลลัพธ์คือเราก็จะได้ Mini App ที่ใช้งานได้จริงภายในเวลาไม่ถึงนาทีครับ ทำความรู้จัก Google Opal AI เมื่อการสร้างแอปด้วย AI ง่ายขึ้นกว่าที่เคย ถ้าสิ่งที่เคยยากที่สุดในการสร้างแอปคือการต้องเขียนโค้ด วางระบบ และเชื่อมต่อ API ด้วยตัวเอง วันนี้ Google กำลังเปลี่ยนภาพเดิมทั้งหมดด้วยเครื่องมือใหม่ชื่อ […]