fbpx

การทำ SEO ในเซิร์ชเอนจิน : ปัญหาประชาธิปไตยและความเหลื่อมล้ำในตลาดข้อมูลข่าวสาร


ความสำคัญของเซิร์ชเอนจินต่อโลกออนไลน์


เซิร์ชเอนจิน (search engine) เป็นประตูสำคัญสำหรับการท่องโลกอินเตอร์เน็ต ผู้ใช้กว่า 30% เข้าไปชมเว็บไซต์ต่างๆ ผ่านเซิร์ชเอนจิน (ขณะที่กว่า 50% เข้าเว็บไซต์โดยช่องทางตรง และมีเพียงกว่า 3% เท่านั้นที่มาจากสื่อสังคมออนไลน์) และเซิร์ชเอนจินเจ้าใหญ่ที่สุดในโลกขณะนี้คือกูเกิล บริษัทแพลตฟอร์มที่ถือครองส่วนแบ่งตลาดการค้นหาเว็บไซต์กว่า 80-90% (ข้อมูลจาก statista.com)

ด้วยความสำคัญในระบบนิเวศดิจิทัล ทำให้มีคนตั้งคำถามมากมายเกี่ยวกับความเป็นกลางของเซิร์ชเอนจินว่าระบบได้ทำงานอย่างดีที่สุดเพื่อสังคมแล้วหรือยัง หนึ่งในงานศึกษาที่เปิดประเด็นนี้และถูกอ้างอิงบ่อยครั้ง คือ ‘Shaping the Web: Why the politics of search engines matters’ โดยลูคัส อินโทรนาส (Lucas Intronas) อาจารย์ด้านเทคโนโลยีและจริยธรรมที่มหาวิทยาลัยแลงคาสเตอร์ ซึ่งแม้จะถูกเขียนขึ้นเมื่อ 20 กว่าปีมาแล้ว แต่ข้อโต้แย้งของลูคัสก็ยังคงมีความทันสมัยอยู่ไม่น้อยในปัจจุบัน

ลูคัสอภิปรายไว้อย่างน่าสนใจว่าเซิร์ชเอนจิน อาทิ กูเกิล ได้สร้างตลาดแห่งตลาด (market of markets) ที่ผู้คนสามารถใช้เซิร์ชเอนจินเป็นหนทางเข้าสู่ตลาดย่อยๆ อันหลากหลายได้ เช่น เวลาเขาอยากอ่านข้อมูลเกี่ยวกับรถยนต์ไฟฟ้า เขาอาจจะค้นหาคำว่า ‘รถยนต์ EV’ เวลาเขารู้สึกหิว เขาอาจจะค้นหาคำว่า ‘ร้านอาหารใกล้ฉัน’ การค้นหาคำที่แตกต่างกันบนเซิร์ชเอนจินนำพาผู้คนไปสู่ตลาดแห่งสารสนเทศแตกต่างกัน

คำถามสำคัญคือเซิร์ชเอนจินให้บริการนักท่องอินเตอร์เน็ตในตลาดที่แตกต่างกันได้ดีขนาดไหน และคุณภาพของเว็บไซต์ที่เซิร์ชเอนจินนำเสนอต่อนักท่องอินเตอร์เน็ตนั้นเป็นอย่างไร ลูคัสได้พบปัญหาในหลากหลายมิติ จนทำให้เขาตั้งคำถามเกี่ยวกับความเป็นประชาธิปไตยของระบบอินเตอร์เน็ต เมื่อเซิร์จเอนจินมีบทบาทสำคัญในการจัดเรียงข้อมูลออนไลน์อย่างยิ่ง

แต่ก่อนที่เราจะเข้าใจประเด็นสำคัญเหล่านี้ได้ เราอาจจะต้องทำความเข้าใจการดำเนินการของระบบเซิร์ชเอนจินก่อน


การดำเนินการของเซิร์ชเอนจิน


ถึงแม้ว่ารายละเอียดการทำงานของเซิร์ชเอนจินแต่ละเจ้าจะถูกเก็บเป็นความลับ แต่ก็เป็นที่รู้กันอย่างคร่าวๆ ในภาพกว้างว่ากระบวนการทำงานของเซิร์ชเอนจินโดยทั่วไปมีอยู่ 2 ลำดับชั้น ชั้นแรกคือการรวบรวมและทำดัชนี (indexing) เว็บไซต์ วิศวกรสร้างเซิร์ชเอนจินจะเขียนโปรแกรมคล้ายกับ ‘แมงมุม’ (spider) เพื่อที่จะ ‘ไต่’ (crawl) ไปตามเว็บไซต์ต่างๆ ผ่านไฮเปอร์ลิงก์ และจะเก็บตัวระบุ (URL) หน้าของเว็บไซต์ต่างๆ เอาไว้

ไม่มีใครรู้ว่าอินเตอร์เน็ตโดยแท้จริงแล้วมีขนาดใหญ่แค่ไหน มีการคาดการณ์ว่าขนาดเซิร์ชเอนจินเจ้าใหญ่ที่สุดอย่างกูเกิล ก็ยังสามารถเข้าถึงเพียงเสี้ยวเดียวของระบบอินเตอร์เน็ตทั้งหมดเท่านั้น (อาจจะ 10% เป็นอย่างมาก) ถึงแม้ว่าส่วนหนึ่งของระบบอินเทอร์เน็ตจะไม่ได้ถูกสร้างขึ้นมาเพื่อให้สาธารณชนเข้าถึงโดยง่าย เช่น เว็บมืด (dark web) แต่ขณะเดียวกัน ผู้ประกอบการจำนวนมากก็ประสบปัญหาเมื่อพบว่ากูเกิลไม่ได้จัดทำดัชนีเว็บไซต์พวกเขา จนเกิดเป็นคำแนะนำมากมายว่าจะทำให้กูเกิลผนวกเว็บไซต์หนึ่งเข้าไปในระบบเซิร์ชเอนจินได้อย่างไร

เมื่อเซิร์ชเอนจินจัดเก็บข้อมูล URL เรียบร้อยแล้ว ขั้นที่สองของการทำงาน คือการนำเสนอเว็บไซต์ตามคำค้นหาของผู้ใช้ ว่ากันว่ากูเกิลใช้ปัจจัยมากกว่า 200 ปัจจัยในการจัดอันดับเว็บไซต์ อย่างไรก็ตาม ลอร่า กรานคา (Laura Granka) นักวิจัยทางด้านประสบการณ์ผู้ใช้ (user experience) ของกูเกิล กล่าวว่า มี 3 ปัจจัยหลักที่ถูกใช้ในการจัดอันดับเว็บไซต์ เพื่อให้ผู้ใช้สามารถค้นพบข้อมูลได้ ปัจจัยแรกคือชุดคำที่ถูกใช้สำหรับค้นหาต้องปรากฏอยู่ในเว็บไซต์ ปัจจัยที่สองคืออัลกอริทึมเพจแรงก์ (PageRank algorithm) ซึ่งทำงานคล้ายกับการอ้างอิงในวงการวิชาการ โดยจะจัดให้เว็บไซต์หนึ่งมีอันดับสูงขึ้น ถ้ามีเว็บไซต์อื่นๆ จำนวนมากเชื่อมไฮเปอร์ลิงก์มาสู่เว็บไซต์นั้น

ปัจจัยที่สามคือข้อมูลร่องรอย (digital footprint) ที่เซิร์ชเอนจินสามารถตรวจจับได้ เช่น ผู้ใช้กดเข้าไปดูเว็บไซต์ไหนจากเซิร์ชเอนจิน ผู้ใช้ใช้เวลานานเท่าไรในการเข้าไปอ่านเว็บไซต์นั้นๆ และผู้ใช้ปรับแต่ง เปลี่ยนแปลงคำที่ใช้ในการค้นหาอย่างไร

ทั้งนี้ ปัจจัยแต่ละปัจจัยที่ลอร่ากล่าวถึงนั้นเล่นบทบาทแตกต่างกัน คำที่ถูกใช้ค้นหาจะตีกรอบว่า URL ที่เกี่ยวข้องกับชุดคำค้นหานั้นมีอะไรบ้าง บ่อยครั้งที่เซิร์ชเอนจินพบเว็บไซต์ที่เกี่ยวข้องเป็นจำนวนล้านๆ เว็บไซต์ อัลกอริทึมเพจแรงก์จึงทำหน้าที่จัดอันดับเว็บไซต์เหล่านั้นคร่าวๆ ส่วนข้อมูลร่องรอยจากผู้ใช้สามารถนำมาใช้ปรับแต่งการจัดอันดับเว็บไซต์ที่ได้รับการจัดอันดับค่อนข้างสูงอีกทีหนึ่ง เช่น ถ้าผู้ใช้จำนวนมากเข้าชมเว็บไซต์หนึ่งจากเซิร์ชเอนจิน แต่ใช้เวลาอยู่เพียงชั่วครู่เดียว (bounce rate) เว็บไซต์นั้นก็ไม่น่าใช่เป็นเว็บไซต์ที่ตอบโจทย์ผู้ใช้ สมควรถูกลดอันดับลง

เนื่องจากเซิร์ชเอนจิน โดยเฉพาะกูเกิล เป็นประตูสำคัญสำหรับการเข้าสู่เว็บไซต์ต่างๆ ในระบบอินเทอร์เน็ต จึงมีบริการเชิงพาณิชย์ เรียกว่า Search Engine Optimization (SEO) ถือกำเนิดขึ้นมา เพื่อให้คำแนะนำแก่เจ้าของเว็บไซต์ว่าจะทำให้เซิร์ชเอนจินผนวกเว็บไซต์เข้าไปในระบบการค้นหาได้อย่างไร และจะทำอย่างไรให้เว็บไซต์ของพวกเขาได้รับการจัดอันดับที่สูงขึ้น

ทั้งหมดนี้ทำให้ระบบอินเทอร์เน็ตโดยรวมมีพลวัตสูงมาก มีการชิงไหวชิงพริบเกิดขึ้นระหว่างผู้ประกอบการ SEO และเจ้าของเซิร์ชเอนจินตลอดเวลา ผู้ประกอบการ SEO ต้องพยายามระบุให้ได้ว่าเซิร์ชเอนจินทำงานอย่างไร ขณะเดียวกัน บริษัทผู้ให้บริการเซิร์ชเอนจินก็ต้องเปลี่ยนแปลงอัลกอริทึมที่ใช้จัดอันดับเว็บไซต์ตลอดเวลา เพื่อทำให้ผู้ประกอบ SEO ไม่สามารถรู้เท่าทันระบบการทำงานของเซิร์ชเอนจินได้ทั้งหมด


ตลาดแห่งสารสนเทศและความท้าทายต่อประชาธิปไตยในอินเทอร์เน็ต


ดังที่ได้กล่าวไว้ข้างต้น เซิร์ชเอนจินคือตลาดแห่งตลาดสารสนเทศ (market of markets) เมื่อพูดถึงตลาด เราจะนึกถึงอุปสงค์และอุปทาน ตลาดที่เซิร์ชเอนจินสร้างขึ้นมาก็ประสบปัญหาทั้งทางด้านอุปสงค์และอุปทานเช่นเดียวกัน

ในแง่หนึ่ง เซิร์ชเอนจินอาจเป็นช่องทางที่ความเหลื่อมล้ำในโลกออฟไลน์ถูกถ่ายเทเข้าไปในโลกออนไลน์ เพราะมีองค์กรจำนวนไม่มากที่สามารถจ้างผู้ประกอบการ SEO มืออาชีพมาช่วยทำให้เว็บไซต์ของพวกเขามีอันดับที่ดีขึ้น อีกทั้งยังสร้างความท้าทายต่อความเป็นประชาธิปไตยของระบบอินเทอร์เน็ต เมื่อเราพบว่าเซิร์ชเอนจินอาจไม่ได้รับใช้ผู้ใช้ทุกคนอย่างเท่าเทียมจากประเด็นปัญหาดังต่อไปนี้


กูเกิลบอมและการใช้ประโยชน์จากจำนวนไฮเปอร์ลิงก์

กูเกิลบอม (Google Bombing) หรือการสร้างไฮเปอร์ลิงก์จำนวนมาก เป็นวิธีหนึ่งที่ผู้ประกอบการ SEO ใช้เพื่อเปลี่ยนแปลงการจัดอันดับเว็บไซต์ของเซิร์ชเอนจิน เนื่องจากเซิร์ชเอนจินใช้จำนวนไฮเปอร์ลิงก์ช่วยในการจัดอันดับ (อัลกอริทึมเพจแรงก์) ดังนั้น ถ้าเพิ่มจำนวนไฮเปอร์ลิงก์ที่ชี้ไปยังเว็บไซต์เป้าหมายก็จะช่วยเพิ่มอันดับเว็บไซต์เป้าหมายด้วย ผู้ประกอบการ SEO บางกลุ่มจึงใส่ข้อมูลเว็บไซต์เป้าหมายเข้าไปในเว็บบอร์ดสาธารณะเป็นจำนวนมาก เพื่อทำให้ spider ของเซิร์ชเอนจินตรวจสอบพบ และเพิ่มอันดับของเว็บไซต์เป้าหมาย

ที่ผ่านมา วิกิพีเดีย (Wikipedia) คือหนึ่งในเว็บไซต์ที่คนมักเข้าไปทำกูเกิลบอมด้วย เพราะตัวเว็บไซต์ได้รับความนิยมมากและทุกคนมีสิทธิที่จะเปลี่ยนแปลงข้อมูลในวิกิพีเดียได้ วิธีเหล่านี้ถูกใช้ทางด้านการเมือง ตัวอย่างที่ได้รับการพูดถึงอย่างมาก คือการค้นหาคำว่า ‘miserable failure’ ในปี 2004 ซึ่งจะพบประวัติของอดีตประธานาธิบดีของประเทศสหรัฐอเมริกา George W. Bush ขึ้นอยู่ในอันดับต้นๆ

อนึ่ง นอกจากการทำกูเกิลบอม องค์กรอาจจะใช้วิธีที่ตรงไปตรงมากว่าในการเพิ่มอันดับเว็บไซต์ผ่านการเพิ่มจำนวนไฮเปอร์ลิงก์ที่ชี้มายังเว็บไซต์ตนเอง ด้วยการสร้างเว็บไซต์ของตนเป็นศูนย์รวมของแหล่งข้อมูลที่เกี่ยวโยงกับพันธกิจขององค์กร เช่น เว็บไซต์ของธนาคารแห่งประเทศไทยถูกสร้างให้เป็นเว็บไซต์รวบรวมข้อมูลเกี่ยวกับการเงินและเศรษฐกิจของประเทศไทย กลยุทธ์นี้สามารถทำให้เว็บมาสเตอร์ของเว็บไซต์อื่นสร้างไฮเปอร์ลิงก์เชื่อมต่อมาที่เว็บไซต์ขององค์กรโดยอัตโนมัติ และถือว่าเป็นวิธีเพิ่มอันดับที่มาพร้อมกับการเพิ่มคุณประโยชน์ของเว็บไซต์ต่อผู้ใช้อย่างแท้จริง


เมื่อผู้ใช้มองว่าอันดับของเว็บไซต์เป็นดั่งสัจธรรม

การจัดอันดับของเซิร์ชเอนจินทำให้โฟกัสความสนใจของผู้ใช้พุ่งไปที่เว็บไซต์อันดับสูง และทำให้ผู้ใช้มีโอกาสเข้าชมสารสนเทศในเว็บไซต์อันดับต้นๆ มากกว่าเว็บไซต์อื่น มีงานวิจัยระบุว่าผู้ใช้จำนวน 34% ที่เข้าชมเว็บไซต์อันดับแรกบนหน้าเซิร์ชเอนจิน เป็นจำนวนเท่ากับผู้ใช้ที่เข้าชมเว็บไซต์อันดับที่ 2 ถึง 5 รวมกัน และมากกว่าอันดับที่ 5 ถึง 20 รวมกัน (ข้อมูลจาก pollthepeople.app)

ผู้คนส่วนมากมองการจัดอันดับของเซิร์ชเอนจินเป็นดั่งสัจธรรม พวกเขาคิดว่าสิ่งที่ถูกจัดอันดับอยู่ในระดับที่สูงย่อมดีกว่าเว็บไซต์ที่ถูกจัดอันดับต่ำกว่า มีผู้ใช้จำนวนเสี้ยวเดียวเท่านั้นที่จะคลิกเข้าไปดูหน้าที่สองของการจัดอันดับโดยเซิร์ชเอนจิน มาร์ก ปีเตอร์สัน (Mark Petterson) อาจารย์ด้านกฎหมายที่มหาวิทยาลัยฟอร์ดแฮม (Fordham University) กล่าวไว้อย่างน่าสนใจว่า การบริโภคสารสนเทศที่ผ่านการจัดอันดับโดยเซิร์ชเอนจินนั้นคล้ายกับการกินวิตามิน ถึงแม้จะบริโภคไปแล้วก็ยังไม่สามารถรู้ได้ว่าสิ่งที่บริโภคไปนั้นดีต่อตัวเองหรือไม่ (credence goods)

ถึงแม้ว่ากูเกิลจะเป็นเซิร์ชเอนจินเจ้าใหญ่ที่สุด แต่กูเกิลไม่ใช่เซิร์ชเอนจินเจ้าเดียวในโลก ทางกูเกิลเคยกล่าวว่าการแข่งขันในอุตสาหกรรมเซิร์ชเอนจินนั้นยังอยู่ในระดับที่สูง เพราะถ้าคนไม่พอใจบริการของกูเกิล ก็สามารถย้ายไปใช้บริการของเซิร์ชเอนจินเจ้าอื่นได้ทันที (“Competition is only one click away”) แต่สิ่งนี้จะเกิดขึ้นไม่ได้ถ้าผู้ใช้ส่วนใหญ่ไม่สามารถประเมินคุณภาพการจัดอันดับของเซิร์ชเอนจินได้


ตลาดแห่งสารสนเทศบางตลาดอาจจะมีคุณภาพต่ำ

เซิร์ชเอนจินสร้างตลาดแห่งตลาด (market of markets) บางตลาดก็มีการแข่งขันกันสูง แต่บางตลาดแทบจะไม่มีการแข่งขันเลย ดังนั้นการหวังว่าคุณภาพของสารสนเทศในตลาดที่มีอุปสงค์ต่ำจะมีคุณภาพสูงก็คงเป็นไปไม่ได้ เพราะคงไม่มีผู้ประกอบการรายไหนเข้าไปทำกิจการในตลาดที่มีขนาดเล็กเกินไป ทั้งนี้ มีตลาดสารสนเทศอุปสงค์ต่ำจำนวนมากถูกสร้างขึ้นโดยเซิร์ชเอนจิน เห็นได้จากข้อมูลชุดคำจำนวนประมาณ 31,000 ชุดเท่านั้นที่ได้รับการค้นหามากกว่าหนึ่งแสนครั้งต่อเดือน ขณะที่มีจำนวนชุดคำมากถึง 3.8 พันล้านชุดคำได้รับการค้นหาน้อยกว่า 10 ครั้งต่อเดือน (ข้อมูลจาก ahrefs.com)

เป็นที่แน่นอนว่าเซิร์ชเอนจินย่อมสามารถให้บริการตลาดที่มีอุปสงค์และอุปทานมากได้ดีกว่า เพราะมีข้อมูลให้จัดเรียงเยอะกว่า ซึ่งก่อให้เกิดคำถามว่าเซิร์ชเอนจินจะสามารถตอบโจทย์ชนกลุ่มน้อย (minority) ในสังคมได้ดีขนาดไหน


ทางออกคือการตรวจสอบอัลกอริทึม


ลูคัส อินโทรนาส ได้เสนอทางออกมาแล้วเมื่อ 20 กว่าปีก่อนว่า วิธีที่จะฟื้นฟูประชาธิปไตยในระบบอินเทอร์เน็ต คือการให้เจ้าของเซิร์ชเอนจินเปิดเผยการออกแบบอัลกอริทึมสำหรับการจัดอันดับเว็บไซต์ เพื่อที่ผู้ใช้จะได้มีข้อมูลมากขึ้นว่าควรใช้เซิร์ชเอนจินของบริษัทหรือไม่ แต่ปัญหาของวิธีนี้คืออาจเปิดโอกาสให้ผู้ประกอบการ SEO เข้ามาตีรวนระบบระบบเซิร์ชเอนจินได้

ทางที่ดีกว่าจึงอาจเป็นการจัดตั้งองค์กรเข้ามาตรวจสอบอัลกอริทึมของเซิร์ชเอนจิน (algorithm audit) ว่าถูกสร้างขึ้นมาเพื่อตอบโจทย์สังคมอย่างดีที่สุดแล้วหรือยัง วิธีการตรวจสอบอัลกอริทึมของเซิร์ชเอนจินอาจทำได้โดยการสร้างโปรแกรมขึ้นมาทดลองค้นหาชุดคำต่างๆ บนเซิร์ชเอนจินที่แตกต่างกัน อาทิ กูเกิล (Google) บิง (Bing) ยาฮู (Yahoo) ยานเดกซ์ (Yandex) และไบดู (Baidu) เพื่อดูผลลัพธ์และระบุจุดอ่อน จุดแข็ง อคติ (bias) ของแต่ละเซิร์ชเอนจิน ข้อดีของวิธีนี้คือจะไม่เป็นการเปิดโอกาสให้ผู้ประกอบการ SEO เข้ามาฉกฉวยผลประโยชน์เพราะไม่ได้เปิดเผยอัลกอริทึมทั้งหมดของเซิร์ชเอนจิน

ถ้าผู้ใช้มีข้อมูลเกี่ยวกับคุณลักษณะอัลกอริทึมของเซิร์จเอนจินแต่ละเจ้ามากขึ้น ตลาดอาจจะแข่งขันกันได้ดีขึ้น บรรเทาปัญหาการผูกขาดในอุตสาหกรรมเซิร์ชเอนจินยิ่งขึ้น เพราะผู้ใช้สามารถประเมินการให้บริการ และสามารถเลือกใช้เซิร์ชเอนจินที่ตอบโจทย์ของตัวเองได้ดีที่สุด ยิ่งไปกว่านั้นยังทำให้คุณภาพการจัดเรียงสารสนเทศในระบบอินเทอร์เน็ตเพิ่มสูงขึ้น บีบให้เซิร์ชเอนจินแต่ละเจ้าต้องพัฒนาระบบให้ตอบโจทย์ผู้คนหลากหลายกลุ่ม ซึ่งจะนำมาสู่การช่วยฟื้นฟูความเป็นประชาธิปไตยของระบบอินเทอร์เน็ตทั้งระบบ

MOST READ

Life & Culture

1 Feb 2019

ทรมานแสนสุขสม : เปิดโลก ‘BDSM’ รสนิยมทางเพศที่ตั้งต้นจากความยินยอมพร้อมใจ

ศุภาวรรณ คงสุวรรณ์ ชวนสำรวจรสนิยมทางเพศแบบ BDSM ผ่านการพูดคุยกับสองสาวเจ้าของเพจ Thailand BDSM : Let’s Play and Learn ว่าด้วยนิยาม รูปแบบ คำอธิบายของความสุขในความเจ็บปวด ไปจนถึงความเสี่ยงในการใช้โซเชียลมีเดียเพื่อตามหาผู้มีรสนิยมแบบเดียวกัน พร้อมเก็บบรรยากาศการแสดง ‘ชิบาริ’ โดยศิลปินชาวญี่ปุ่นมาเล่าสู่กันฟังอย่างถึงเนื้อถึงหนัง

ศุภาวรรณ คงสุวรรณ์

1 Feb 2019

Life & Culture

8 Sep 2021

คนกระโปกแห่งยุคสมัย 199x ทำไมเด็กเจนวายไม่ยอมโต

คอลัมน์ PopCapture พิมพ์ชนก พุกสุข เขียนถึงสาเหตุสำคัญว่าเพราะอะไร ‘ชาวมิลเลนเนียลส์’ ถึงไม่อาจเติบโตได้อย่างที่ใจหวัง

พิมพ์ชนก พุกสุข

8 Sep 2021

Life & Culture

24 Dec 2018

‘สิงโตนอกคอก’ กับมุมมองต่อความเหลื่อมล้ำของ อดัม สมิธ

ธร ปีติดล เขียนถึงเรื่องสั้น ‘สิงโตนอกคอก’ ของจิดานันท์ เหลืองเพียรสมุท ที่ตั้งคำถามกับประเด็นจริยธรรม เชื่อมโยงกับมุมมองเรื่องความเหลื่อมล้ำของ อดัม สมิธ

ธร ปีติดล

24 Dec 2018

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

Allow All
Manage Consent Preferences
  • Always Active

Save