เอไอเอส จับมือพันธมิตรรุก AI แพลตฟอร์ม

กองบรรณาธิการ

เอไอเอส ร่วมกับสถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AI Research) เผยถึงความสำเร็จของทีมนักวิจัยไทย หลังใช้เวลาเพียง 2 ปี พัฒนาชุดข้อมูล (Dataset) จำแนกอารมณ์จากเสียงพูดภาษาไทย (Speech Emotion Recognition หรือ THAI SER) ได้เป็นครั้งแรกของโลก ด้วยการพัฒนาเทคโนโลยี AI เข้าสู่กระบวนการเรียนรู้ (Deep Learning) มาประยุกต์ใช้ในการประมวลผลสัญญาณเสียง ช่วยให้เข้าใจคุณลักษณะของเสียง ขึ้นแท่นเป็น SER ที่พัฒนาจาก Dataset ที่ใหญ่เป็นอันดับที่ 3 ของโลก โดยอันดับ1 และ2 เป็นภาษาอังกฤษ ที่พัฒนามาจากชุด Dataset เสียงจาก Podcast และ YouTube  ที่จะสามารถนำไปประยุกต์ใช้เพื่อเพิ่มประสิทธิภาพด้านงานบริการที่ตอบโจทย์ความต้องการของลูกค้าได้มากยิ่งขึ้น

นายซันเจย์ แอนดรูว์ โทมัส หัวหน้าคณะผู้บริหารด้านเทคโนโลยีสารสนเทศ เอไอเอส กล่าวว่า ในปัจจุบัน เทคโนโลยี AI ด้านภาษา ถูกนำมาใช้งานอย่างกว้างขวางมากขึ้น โดยเฉพาะอย่างยิ่งภาษาอังกฤษ ซึ่งถือเป็นประโยชน์อย่างมหาศาลในเรื่องการสร้างความเข้าใจลูกค้าในมุมมองด้านอารมณ์และความรู้สึก ซึ่งจะช่วยให้ภาคธุรกิจสามารถประเมินสภาวะทางอารมณ์ของลูกค้า เพื่อนำไปใช้เป็นข้อมูลในการเพิ่มประสิทธิภาพด้านงานบริการได้ดียิ่งขึ้น โดยพิจารณาจาก Customer insight ด้านอารมณ์ของลูกค้า ที่มาจากการให้บริการในด้านต่างๆ

AIS ในฐานะ Digital Service Provider เล็งเห็นถึงความสำคัญในการพัฒนา โครงสร้างพื้นฐาน AI ภาษาไทย โดยเฉพาะการตรวจจับอารมณ์โดยเสียงภาษาไทย ซึ่งเป็นการพัฒนาที่ต้องการ Expert Domain และ ดาต้าขนาดใหญ่ เพื่อให้เกิดการใช้งานได้จริง ดังนั้น ความร่วมมือระหว่างเอไอเอส และ AIResearch จึงถือเป็นจุดเริ่มต้นของการก่อร่าง ecosystem ในแวดวง Deep Tech ในประเทศไทย ให้เติบโตได้อย่างแข็งแกร่ง ทัดเทียมกับนานาชาติ มีบุคลากรที่มีความรู้ ความเชี่ยวชาญในด้านต่างๆ เข้ามาร่วมทำงานสร้างนวัตกรรมที่เกิดประโยชน์ต่อคนไทยทุกภาคส่วน เพื่อสร้างโอกาสในการแข่งขันในเวทีโลก เราเชื่อมั่นว่า ด้วยความเชี่ยวชาญ ความคิดสร้างสรรค์ของคนไทย จะเป็นจุดเชื่อมโยงผลักดันให้ผลงานต่างๆ ของนักวิจัยไทย เป็นที่จดจำและยอมรับในสายตาโลกได้อย่างแน่นอน

ชุดข้อมูล THAI SER สามารถจำแนนอารมณ์จากเสียงได้ 5 อารมณ์ ได้แก่ โกรธ / เศร้า / สุข /หงุดหงิด และปกติ โดยมีความแม่นยำอยู่ที่ 70 เปอร์เซ็นต์และมีความพร้อมที่จะใช้งานสูงถึง 80 เปอร์เซ็นต์ ส่วนที่เหลืออีก 20 เปอร์เซ็นต์ เพื่อให้แบบจำลองพื้นฐาน มีผลการวิเคราะห์ที่ความแม่นยำสุงสูงขึ้น และพร้อมใช้งานในสภาพแวดล้อมการทำงานจริงขององค์กรต่างๆ ที่จะต้องพัฒนาตามแต่ละบริบทต่อไป

 ตัวอย่างของการนำเทคโนโลยี ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER ไปใช้งานจริง ได้แก่

            1. การวิเคราะห์อารมณ์ของลูกค้า จาก ‘เสียงพูด’

            2. การจัดลำดับการให้บริการลูกค้า จาก ‘อารมณ์’ ของลูกค้า

            3. มอบหมายสายลูกค้าให้กับ CSR ตามความสามารถในการรับมืออารมณ์ต่าง ๆ

            4. ฝึกสอน และเตรียมความพร้อมให้กับ CSR ในการปฏิบัติงานจริง

            5. ช่วยเพิ่มความสามารถในการเข้าใจสถานการณ์ และเพิ่มโอกาสในการปิดการขาย

ซึ่งในขณะนี้ ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER พร้อมแล้วที่จะให้นักพัฒนา, กลุ่ม Startup, ผู้ประกอบการ SME, ผู้ให้บริการ และองค์กรต่างๆ เข้ามาศึกษาข้อมูลเพิ่มเติม และนำแพลตฟอร์มนี้ไปต่อยอดในการออกแบบแอพพลิเคชันหรือโซลูชั่นต่างๆ ที่รองรับ AI ภาษาไทย

มากขึ้น ฟรีโดยเข้าไปที่เว็บไซต์ https://airesearch.in.th

#AIS #เอไอเอส #AIแพลตฟอร์ม #สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย #AIResearch #SpeechEmotionRecognition #THAISER #DeepLearning #Podcast #YouTube

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *

Follow by Email
Pinterest
LinkedIn
Share