fbpx
ChatGPT

ChatGPT ทำอะไรได้บ้างและมีจุดอ่อนตรงไหน?: สิ่งที่ต้องรู้ก่อนปรับตัวรับมือ

ตอนที่ 1 มหาวิทยาลัยมีไว้ทำไม? เมื่อ ChatGPT และ AI ทำให้เราเรียนจบได้เหมือนกัน

ตอนที่ 2 แนวโน้มการโกงข้อสอบด้วย ChatGPT: แม้ไม่รู้ แต่ทำไมเราต้องกังวล?

ตอนก่อนผมชวนผู้อ่านคิดว่า ทำไมเราถึงต้องกังวลเรื่องที่นิสิต-นักศึกษาใช้ ChatGPT โกงข้อสอบ หรือทำรายงานแทนให้ในมหาวิทยาลัย อย่างไรก็ตาม ผมยังไม่มีโอกาสอธิบายว่า ChatGPT คืออะไร และตกลงมันทำอะไรได้และทำอะไรไม่ได้บ้างในบริบทของการศึกษา ก่อนจะนำไปสู่การนำเสนอว่าสถาบันความรู้ต้องปรับตัวอย่างไร ผมอยากถือโอกาสเล่าเรื่องนี้ก่อน เพราะความเข้าใจดังกล่าวไม่เพียงแต่ช่วยให้เห็นภาพชัดขึ้นว่าทำไม ChatGPT และโมเดลอื่นที่มีลักษณะคล้ายกันถึงช่วยเด็ก ‘โกง’ การเรียนได้ แต่ยังเป็นพื้นฐานในการคิดหาแนวทางแก้ปัญหาต่อไปอีกด้วย

ChatGPT คืออะไรกันแน่?

ChatGPT เป็นโมเดลเอไอที่ใช้สร้างข้อเขียนเพื่อสนทนา หรือทำตามคำสั่งผู้ใช้ ซึ่งโมเดลนี้ประกอบสร้างขึ้นมาจากเทคโนโลยีสองสาขา คือ natural language processing ที่มุ่งพัฒนาคอมพิวเตอร์ให้มีศักยภาพตอบโต้ข้อความของมนุษย์อย่างเป็นธรรมชาติเสมือนเป็นมนุษย์ และ machine learning ซึ่งมุ่งสร้างคอมพิวเตอร์ที่จำลองศักยภาพนึกคิด (cognitive capabilities) ของมนุษย์ในบางแง่มุม เพื่อเรียนรู้การทำงานบางอย่าง

ในช่วงแรกของการสร้างและพัฒนาโมเดล ผู้สร้างฝึก ChatGPT คล้ายๆ ฝึกเด็กครับ คือให้ผลิตข้อเขียนออกมา ถ้าทำถูกก็ชื่นชมให้รางวัล ผิดก็บอกไปว่าผิด ซึ่งระบบการฝึกฝนแบบนี้โดยรวมแล้วเรียกว่าระบบการให้รางวัล เมื่อพัฒนาไปได้ถึงจุดหนึ่งก็เปิดให้โมเดลที่ผ่านการฝึกฝนเบื้องต้นเรียนรู้พัฒนาศักยภาพการสร้างบทสนทนาจากการประมวลข้อมูลจำนวนมหาศาลบนโลกออนไลน์ด้วยตัวเองโดยไม่มีผู้สอน (unsupervised) ส่วนทีมสร้างหันมาทำสิ่งที่เรียกว่ากระบวนการขัดเกลา (fine tune) และดึงศักยภาพ (prompt engineer) เฉพาะส่วนโดยทีมผู้สร้าง เช่น แทรกแซงสั่งห้ามป้องกันการเขียนเนื้อหาที่ไม่เหมาะสมอย่างวิธีการสร้างอาวุธ การให้คำสำคัญสำหรับค้นหาวิดีโอเกี่ยวกับการทรมานสัตว์ในโลกออนไลน์ เป็นต้น

ส่วนในเรื่องการทำงาน วิธีเปรียบเปรยง่ายๆ (แม้ไม่แม่นยำเต็มร้อย แต่พอได้อยู่) คือให้เรานึกถึงเทคโนโลยีอย่าง ‘auto-completion’ ซอฟต์แวร์ในสมาร์ตโฟนที่เราคุ้นเคยกันในปัจจุบัน ลักษณะการทำงานของเทคโนโลยีดังกล่าวได้แก่การทำนายคำที่เราน่าจะต้องการพิมพ์แล้วนำเสนอให้เราเลือกกด ChatGPT ทำงานทำนองเดียวกัน คือพอได้รับบทสนทนาหรือคำสั่งจากมนุษย์ ChatGPT จะทำการทำนายและประมวลคำและแนวทางการจัดเรียงข้อเขียนเพื่อตอบ และนำไปสู่ผลลัพธ์ความพึงพอใจของผู้ใช้ อย่างไรก็ตาม ความแตกต่างระหว่าง ChatGPT กับซอฟต์แวร์เหล่านี้คือ ศักยภาพในการประมวลผล และการสร้างผลลัพธ์ได้หลากหลายและเสมือนจริงกว่าอย่างเทียบกันไม่ติด

เบื้องหลังศักยภาพของ ChatGPT มีอยู่หลายปัจจัยครับ ตัวอย่างง่ายๆ เช่น ChatGPT เรียนรู้บนฐานข้อมูลข้อเขียนจำนวนมหาศาลบนอินเทอร์เน็ต จากตัวหนังสือจำนวน 570 ล้านกิกะไบต์ เทียบเท่ากับกับหนังสือแฮร์รี่ พอตเตอร์เล่มแรกหรือ ‘ศิลาอาถรรพ์’ ประมาณ 15,000 ล้านเล่ม (ChatGPT จำกัดข้อมูลที่ใช้ประมวลผลถึงปี 2021) เมื่อฝึกไปฝึกมา จำนวนพารามิเตอร์ของ ChatGPT ซึ่งหมายถึงตัวแปรที่ตัวเรียนรู้เพื่อใช้ประมวลผลและสร้างผลลัพธ์ก็มีมากกว่ากว่า 1.75 แสนล้านตัวแปร (ใช่แล้วครับ 175,000,000,000 ตัวแปร) ทิ้งห่างโมเดลอันดับสองและเคยเป็นโมเดลที่ซับซ้อนที่สุดอย่าง Curie ถึงสิบสามเท่า

ด้วยศักยภาพอันเหลือเชื่อ ทำให้ความสามารถของ ChatGPT สูงไปด้วย โดยเฉพาะในแวดวงการศึกษา นักศึกษาเคมบริดจ์คนหนึ่งให้สัมภาษณ์กับสำนักข่าวว่าการสนทนากับ ChatGPT นั้นคล้ายการได้คุยขอคำแนะนำจาก ‘เพื่อนที่ฉลาดกว่า’ 

ChatGPT เก่งตรงไหน ทำอะไรได้บ้าง

การสรุปฟันธงอย่างเด็ดขาดว่า ChatGPT มีศักยภาพและความสามารถอะไรบ้าง เป็นเรื่องที่ยากมาก เพราะโดยธรรมชาติแล้ว เอไอพัฒนาตัวเองผ่านการรับข้อมูลแล้วเรียนรู้ผ่านการลองผิดลองถูก ทำให้สามารถพัฒนาศักยภาพตนเองได้อย่างต่อเนื่อง พารามิเตอร์ที่สร้างขึ้นมาก็มีลักษณะคล้าย ‘กล่องดำ’ ทำนองสมองมนุษย์ที่มองจากข้างนอกแล้วไม่เห็นกลไกการทำงานข้างใน ที่น่าทึ่ง (และน่าตกใจ) คือทีมผู้ให้กำเนิดเองก็ไม่รู้ว่าทุกวันนี้ ChatGPT เก่งไปถึงขนาดไหนแล้ว จนกว่าจะทดลองสั่งให้โมเดลลองทำงานดูจึงจะรู้ว่าทำได้หรือไม่ได้อย่างไร แล้วจึงจะสามารถคาดการณ์ศักยภาพปัจจุบันของเทคโนโลยีได้อย่างแม่นยำ

อย่างไรก็ตาม มีงานวิจัยที่ทำการทดลองความสามารถของ ChatGPT และเจอขอบเขตศักยภาพ ‘เท่าที่รู้’ อยู่บ้าง ซึ่งหลังจากอ่านมาแล้วจำนวนหนึ่ง ผมจัดแบ่งข้อค้นพบเหล่านี้ในบริบทการศึกษาเป็นสองมิติ หนึ่งคือรูปแบบงานที่สามารถทำได้ (functions) และสองคือความสามารถในการบรรลุภารกิจแต่ละด้าน (performance)

ในเรื่องรูปแบบงาน UNESCO สรุปความสามารถการทำงานของ ChatGPT ในด้านการศึกษาไว้ 10 ข้อ ได้แก่ (1) นำเสนอความคิดและสไตล์การเขียนในรูปแบบต่างๆ (2) ซักค้านผู้ใช้งาน (เล่นบท ‘โสเครติส’) (3) เป็นโค้ชให้การทำงานกลุ่ม (4) แนะแนวและออกแบบวิธีการสอนในห้องเรียน (5) เล่นบทติวเตอร์ส่วนบุคคล (6) ช่วยออกแบบหลักสูตรและวิธีการเรียนรู้ (7)  เป็นเพื่อนแลกเปลี่ยนเรียนรู้ (7) บริหารจัดการข้อมูลจากการสำรวจ (9) ใช้ออกแบบและสร้างแรงจูงใจให้กับนักศึกษา และ (10) ใช้ประเมินผลการเรียนการสอน อย่างไรก็ตาม รายงานของ UNESCO สรุปเฉพาะงานที่เกิดจากการทำงานร่วมกันระหว่างผู้ใช้และโมเดลเพื่อสร้างหรือ ‘สนับสนุน’ แต่จะไม่รวมงานประเภทให้ ChatGPT ทำฝ่ายเดียวอย่างการถ่ายทอดความรู้ แก้โจทย์ปัญหา เขียนงานชั้นสูง (ซึ่งเป็นส่วนที่ใช้ ‘โกง’ กันอย่างที่ว่าไปครับ) 

ส่วนในเรื่องศักยภาพก็มีข้อค้นพบดังต่อนี้ โดยคำประเมินที่ผมเติมเข้าไป เช่น ‘เป็นธรรมชาติ’, ‘ดี’, หรือ ‘ดีเยี่ยม’ สื่อถึงความสามารถของ ChatGPT โดยเปรียบเทียบกับมนุษย์ทั่วไป ดังนี้

  • ChatGPT ถาม-ตอบบทสนทนาในชีวิตประจำวันได้อย่างเป็นธรรมชาติ แม้จะมีข้อผิดพลาดแต่ก็มีจำกัดในระดับเดียวกับที่เกิดขึ้นได้ในบทสนทนาระหว่างมนุษย์ และกลายเป็นว่าหลายครั้งทำให้คู่สนทนาที่เป็นมนุษย์สัมผัสได้ถึงประสบการณ์เสมือนจริงของบทสนทนามากขึ้น
  • ChatGPT ให้ความรู้ที่ความสอดคล้อง ครบถ้วนได้ดีเยี่ยม โดยต้องหมายเหตุไว้ว่ามีงานวิจัยพบว่า ChatGPT สามารถสรุปเอกสารทางวิชาการได้ดีเยี่ยมโดยทั่วไป แต่คุณภาพของข้อเขียนจะแปรผกผันกับความยาวของบทความ แต่ทั้งนี้ทั้งนั้น ผลการสำรวจความเห็นนักศึกษาเคมบริดจ์กว่า  400 คน ให้ข้อสรุปค่อนข้างตรงกันว่า ChatGPT “สอนและบรรยายความรู้ได้ดีกว่าอาจารย์ของตน”
  • ChatGPT แปลภาษาหลักในโลกได้ดีเยี่ยม โดยมีความแม่นยำสูงในภาษาอังกฤษ ฝรั่งเศส สเปน นอกจากนี้ มีผู้ทดลองใช้ ChatGPT ให้ลองสอนภาษาและพบว่าโมเดลทำหน้าที่ดังกล่าวได้ดีเยี่ยม และอาจดีกว่ามนุษย์หากพิจารณาในแง่ที่ว่าโมเดลสามารถจดจำระดับการเรียนรู้และลักษณะเฉพาะของผู้เรียน ทำให้สามารถออกแบบแบบฝึกหัดทางภาษาที่ใช้เฉพาะและช่วยทบทวนศัพท์เท่าที่ผู้เรียนรู้ หรืออธิบายคำตอบโดยเลือกใช้ตัวอย่างที่เหมาะสมกับบริบทแวดล้อมผู้เรียน
  • ChatGPT สามารถตั้งประเด็นโต้แย้งได้ดีเยี่ยม กล่าวคือเราสามารถสั่งให้ ChatGPT เล่นบทบาทเฉพาะ เช่น ให้สร้างข้อโต้แย้งต่อประเด็นสนทนาจากมุมมองแบบใดแบบหนึ่ง และมีคุณภาพเสียด้วย
  • ChatGPT สามารถอ่านตรวจและประเมินคุณภาพงานได้ดี โดยเฉพาะในงานประเมินคะแนนของเรียงความขนาดสั้นที่สามารถทำได้อย่างยอดเยี่ยม งานวิจัยหนึ่งพบว่าค่าเบี่ยงเบนมาตรฐานระหว่างการตรวจเรียงความของ ChatGPT กับอาจารย์ผู้เชี่ยวชาญรายวิชานั้นใกล้เคียงกัน (0.8) รวมถึงยังสามารถให้คำแนะนำที่มีคุณภาพต่อผู้เรียนได้อีกด้วย

กล่าวโดยสรุป ChatGPT มีความสามารถเพียงพอ (และอาจถึงขั้นดีเยี่ยม) ที่จะทำงานวิชาการในระดับปริญญาตรี ซึ่งให้น้ำหนักสำคัญกับความเข้าใจในความรู้ คอนเซ็ปต์ ทฤษฎีพื้นฐานในแต่ละสาขาวิชา และการประยุกต์ความรู้นั้นเพื่อแก้ปัญหา ถ้าจะขาดอยู่บ้างก็คือโมเดลอาจยังฝึกฝนตนเองไม่พอในบางภาษาหรือสาขาวิชา ซึ่งปัญหานี้มีแนวโน้มจะหมดไปในอนาคตตามข้อมูลที่เพิ่มขึ้น

จุดอ่อนของ ChatGPT

แม้ ChatGPT จะมีศักยภาพล้นเหลือและพัฒนาตนเองอย่างต่อเนื่อง แต่ตัวโมเดลก็มีข้อจำกัดบางประการซึ่งไม่สามารถก้าวข้ามได้ ทั้งนี้ต่อให้จะเพิ่มฐานข้อมูลและพารามิเตอร์เท่าใดก็ตาม หากต้องการหาคำตอบว่าสถาบันศึกษาควรรับมือ ChatGPTอย่างไร เราจำเป็นต้องสำรวจข้อจำกัดเหล่านี้ด้วย ซึ่งจากการสำรวจงานวิจัยมา ผมพบว่าข้อจำกัดของ ChatGPT มี 4 ข้อ

ข้อจำกัดแรก ChatGPT สร้างความรู้ใหม่ไม่ได้ ข้อจำกัดนี้เกิดจากพื้นฐานของโมเดลเองที่สร้างข้อเขียนขึ้นมาจากการประมวลข้อเขียนที่มีอยู่ในโลกออนไลน์ เพื่อนำมาสร้างรูปประโยคและคำที่ผู้ใช้ ‘น่าจะชอบ’ การทำงานเช่นนี้ทำให้ตัวโมเดลไม่สามารถไปไกลกว่าองค์ความรู้ที่ปรากฎอยู่แล้ว

ขอขยายความเล็กน้อยว่า ChatGPT สามารถทำงานบางรูปแบบที่คนใช้อาจมองว่า ‘ใหม่’ ได้อยู่บ้าง อย่างเขียนกวี วรรณกรรม หัวข้อวิจัย แต่โดยแก่นแล้วงานเหล่านี้ไม่ใช่การสร้างสิ่งใหม่ แต่เป็นการประมวลจากข้อเขียนที่มีอยู่แล้วอยู่ดี เช่น ในกรณีของกวีกับวรรณกรรม ChatGPT เรียนรู้ท่วงทำนองในการเขียนหรือโครงเรื่องเนื้อหาที่มีอยู่แล้ว หากคนใช้ไม่ได้ป้อนโครงเรื่อง รายละเอียดตัวละคร หรือแนวคิด โมเดลก็เขียนเนื้อหาใหม่จริงๆ ไม่ได้ หรือในกรณีงานวิชาการ ChatGPT ก็สร้างหัวข้องานวิจัยจากการสำรวจข้อถกเถียงและแนวคิดงานวิจัยใหม่ที่มีผู้กล่าวถึงอยู่แล้ว

ผมเคยทดลองเล่นๆ สั่งให้ ChatGPT นำเสนองานวิจัยที่ไม่เคยมีการกล่าวถึงมาก่อน และต้องเป็นงานวิจัยที่เปิดโลกกระบวนทัศน์ใหม่ทางความรู้ (paradigm shift) เพื่อทดสอบดูว่าผลลัพท์สุดท้ายจะเป็นอย่างไร ผลปรากฎว่า ChatGPT ทำได้แค่จับแพะชนแกะ เอาหัวข้อโน่นนี่มาแปะเข้าด้วยกันแบบที่ไม่เคยมีใครทำมาก่อน เช่น การใช้วิทยาการทางการแพทย์ในการเพิ่มศักยภาพการนึกคิดของมนุษย์ในเรื่องอัตลักษณ์ของตน (self-identity) และการปกครองตนเอง (autonomy) อย่างไรก็ตาม โมเดลไม่สามารถอธิบายเป้าหมาย ความสำคัญ และความเป็นไปได้ของงานวิจัย

ข้อจำกัดที่สองคือ สิ่งที่คนเรียกกันว่า ‘อาการหลอน’ (hallucination) กล่าวคือ ChatGPT ชอบมั่วเรื่องข้อมูลหรือการคำนวณพื้นฐาน ใครสนใจเรื่องนี้ลองพิมพ์คำสั่งให้ ChatGPT บอกเล่าประวัติของบุคคลที่ไม่มีชื่อเสียงดูครับ แทนที่โมเดลจะบอกว่าตัวเองไม่รู้ แต่จะเสนอเรื่องแต่งที่อ่านแล้วขำแน่นอน อย่างผมเองนี่โมเดลก็ให้ข้อมูลว่าเป็นนักแสดง พระเอกชื่อดัง (ซึ่งถ้าเป็นจริงคงไม่มานั่งทำวิจัยแล้ว – ฮา)  

ต้นตอของปัญหาดังกล่าวก็เกิดจากการที่โมเดลไม่มีความสามารถในการใช้วิจารณญาณหรือตัดสินถูกผิด โมเดลเพียงทำนายถ้อยคำในข้อเขียนที่น่าจะเป็นไปได้มากที่สุด ตัวโมเดลไม่รู้ความหมายของสิ่งที่ตนเขียนออกไปด้วยซ้ำ หากแต่แค่มอบคำตอบไปเรื่อยๆ จนกว่าจะเจอคำตอบที่ผู้ใช้พอใจ ต้องย้ำอีกครั้งตรงนี้ว่าโมเดลไม่ได้ตั้งใจโกหกนะครับ ปัญหาคือมันไม่มีความสามารถในการประเมินตัดสินข้อเท็จจริงต่างหาก

ข้อจำกัดที่สามคือ อคติทางสังคมเรื่องนี้เกี่ยวเนื่องกับการที่ ChatGPT ทำนายคำตอบผ่านการประมวลผลข้อมูลบนโลกออนไลน์ ดังนั้น ถ้าเนื้อหาบนโลกออนไลน์มีอคติทางสังคม โมเดลก็จะมีอคติไปด้วย ตัวอย่างเช่นหลายเดือนก่อนผมลองถาม ChatGPT ให้แนะนำนักคิดคนสำคัญของโลกมาสิบคน ผลลัพธ์ที่ได้จะเป็นนักคิดที่เป็นชายผิวขาวทั้งหมด ปัญหาแบบนี้เป็นสิ่งที่ทีมสร้างตระหนักและไล่แก้อยู่ ประเด็นคือต่อให้แก้ได้บ้าง (เช่น เรื่องนักคิดนี่น่าจะแก้ไปแล้ว) แต่จะแก้ได้หมดจริงหรือ เพราะรากของปัญหาคืออคติทางสังคมที่ดำรงอยู่ ตราบใดที่สิ่งนี้ยังไม่หมดไป (ซึ่งยากที่จะหมดไป) ปัญหานี้ก็น่าจะยังมีอยู่  

ข้อจำกัดสุดท้ายคือ ประเด็นความเป็นส่วนตัว เมื่อหนึ่งในแนวทางการเรียนรู้หลักของ ChatGPT คือการเรียนรู้ผ่านการจดจำและประเมินตนเองผ่านบทสนทนากับผู้ใช้งาน บางคนเลยกังวลว่า ChatGPT จะจำข้อมูลของผู้ใช้งานไปประมวลด้วย เช่น หากผู้ใช้งานขอข้อมูลเกี่ยวกับโรคซึมเศร้า เป็นไปได้ว่า ChatGPT จะมีพารามิเตอร์ที่เรียนรู้ว่าบริบทส่วนบุคคลดังกล่าวเป็นปัจจัยสำคัญหนึ่งในการเลือกคำตอบที่เหมาะสม (ผู้ใช้งานพึงพอใจ) ดังนั้นจึงจดจำไว้ ซึ่งก็มีความกังวลในระดับทฤษฎีว่าการจดจำข้อมูลจากบทสนทนาของบุคคลหนึ่งอาจหลุดรั่วผ่านกระบวนการสร้างคำตอบไปยังผู้ใช้งานอื่นในทางใดทางหนึ่ง

ขอหมายเหตุว่า ในปัจจุบันทีมผู้สร้าง ChatGPT ตระหนักถึงความกังวลในเรื่องนี้ดีและยืนยันว่ามีการคัดกรองและคัดทิ้งข้อมูลส่วนบุคคลออกจากระบวนการเรียนรู้ของ ChatGPT แล้ว อย่างไรก็ตาม แนวนโยบายดังกล่าวมีจุดอ่อนอยู่หลายประการ (1) ทีมผู้สร้างไม่บอกชัดว่าจะจัดการเรื่องนี้อย่างไร (2) มีข้อสงสัยทางทฤษฎีว่าทีมผู้สร้างจะสามารถกำกับดูแลเพื่อกำจัดพารามิเตอร์ที่เรียนรู้จากข้อมูลส่วนบุคคลในลักษณะ ‘ไล่หลัง’ การเรียนรู้ของโมเดลได้ทันการจริงหรือเปล่า (3) จนถึงปัจจุบันยังไม่มีกลไกตรวจสอบเรื่องดังกล่าวจากองค์กรภายนอก และ (4) ซึ่งสำคัญที่สุด คือผู้สร้างเพียงประกาศว่า ‘ในปัจจุบัน’ ไม่มีนโยบายการเก็บและใช้ข้อมูลส่วนตัว แต่ประกาศดังกล่าวไม่ได้เป็นกฎหรือข้อผูกมัดตลอดกาลจึงอาจเปลี่ยนได้ในอนาคต ถ้าเราดูสภาพการณ์ในปัจจุบันที่ตลาดโมเดลในลักษณะ ChatGPTเริ่มมีการแข่งขันกันดุเดือด ก็เป็นไปได้ที่ผู้สร้างจะเปลี่ยนท่าทีในเรื่องความเป็นส่วนตัวเพื่อมุ่งเอาชนะในการแข่งขัน

หลายคนอาจเริ่มสังเกตว่าปัญหาส่วนใหญ่ที่กล่าวไปยกเว้นเรื่องการสร้างความรู้ใหม่ ล้วนตั้งต้นจากการที่ ChatGPT ไม่รู้ผิดชอบชั่วดีหรือมีวิจารณญาณแบบมนุษย์ แต่เน้นสร้างข้อเขียนอะไรก็ได้ที่จะได้รางวัลจากคนใช้งาน และนี่เองที่เป็นรากสำคัญของปัญหา เพราะถ้าคนใช้งานมีอคติก็จะให้รางวัลกับเนื้อหาที่มีอคติ ถ้าคนใช้เข้าใจข้อมูลผิดหรือไม่รู้ ให้รางวัลงานเขียนที่ผิดไป โมเดลก็จะจำไว้ทำต่อ แล้วเพื่อรับรางวัลในอนาคต มันก็ประมวลข้อมูลส่วนตัวไว้ด้วย

เรื่องนี้มีผู้เชี่ยวชาญเอากฎของ Goodhart มาอธิบายไว้ครับ กฎนี้บอกว่าในกระบวนการต่างๆ เรามักมีเกณฑ์ประเมินวัดผล แล้วเมื่อถึงวันหนึ่งที่ระบบการทำงานหันไปยึดถือเอาการ ‘สอบผ่าน’ เป็นเกณฑ์เพื่อรับรางวัลเป็นเป้าหมายในตนเอง ผลลัพธ์ก็จะเริ่มบิดเบี้ยวไปจากจุดประสงค์ เนื่องจากระบบอาจจะพยายามหาวิธีการผ่านการสอบโดยลืมเลือนหรือแม้แต่บิดเบือนเป้าหมายที่แท้จริงของกระบวนการ เช่นกระบวนการสอบวัดผลความรู้ที่เข้มงวดอาจทำให้นักเรียนอ่านหนังสือเพื่อผ่านสอบแทน เด็กอาจเน้นท่องสูตรหรือเนื้อหาสำคัญไปตอบข้อสอบ โดยลืมเป้าหมายในการหาความรู้ความเข้าใจในรายวิชา

ในกรณี ChatGPT ระบบการเรียนรู้ผ่านการมุ่งบรรลุรางวัลจากผู้ใช้จำนวนมากที่สุดเป็นเป้าหมายทำให้ข้อเขียนที่ออกมาบิดเบี้ยวไปจากจุดประสงค์ ตัวอย่างสำคัญคือเพิ่งมีการค้นพบว่าคนส่วนใหญ่มักพึงพอใจกับการที่ ChatGPT เขียนตอบยาวมากกว่าสั้น ความพึงพอใจดังกล่าวทำให้โมเดลฝึกตัวเองให้เขียนยาวโดยไม่จำเป็นหรือแม้แต่แต่งข้อมูลเพิ่มเองเพื่อให้คำตอบยาวขึ้น ภายใต้ระบบการให้รางวัลเช่นนี้ ถ้าสังคมชอบหรือสนใจเนื้อหาที่สร้างขึ้นบนพื้นฐานอาการหลอน อคติทางสังคม และความเป็นส่วนตัว โมเดลก็มีแนวโน้มจะทำเช่นนี้ไปเรื่อยๆ

ที่สำคัญคือ ตอนนี้มีการพิสูจน์แล้วว่า ปัญหาแบบกฎของ Goodheart ในกรณี ChatGPT เพิ่มขึ้นอย่างสม่ำเสมอตามปริมาณฐานข้อมูลและจำนวนพารามิเตอร์ที่มากขึ้น ดังนั้น ข้อจำกัดของ ChatGPT คงไม่หายไปง่ายๆ หรือไม่ก็จะไม่มีวันหายเลย


บทความนี้เป็นความร่วมมือระหว่าง สถาบันนโยบายวิทยาศาสตร์ เทคโนโลยีและนวัตกรรม (STIPI) มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี และ The101.world

MOST READ

Life & Culture

14 Jul 2022

“ความตายคือการเดินทางของทั้งคนตายและคนที่ยังอยู่” นิติ ภวัครพันธุ์

คุยกับนิติ ภวัครพันธุ์ ว่าด้วยเรื่องพิธีกรรมการส่งคนตายในมุมนักมานุษยวิทยา พิธีกรรมของความตายมีความหมายแค่ไหน คุณค่าของการตายและการมีชีวิตอยู่ต่างกันอย่างไร

ปาณิส โพธิ์ศรีวังชัย

14 Jul 2022

Social Issues

9 Oct 2023

เด็กจุฬาฯ รวยกว่าคนทั้งประเทศจริงไหม?

ร่วมหาคำตอบจากคำพูดที่ว่า “เด็กจุฬาฯ เป็นเด็กบ้านรวย” ผ่านแบบสำรวจฐานะทางเศรษฐกิจ สังคม และความเหลื่อมล้ำ ในนิสิตจุฬาฯ ปี 1 ปีการศึกษา 2566

เนติวิทย์ โชติภัทร์ไพศาล

9 Oct 2023

Life & Culture

27 Jul 2023

วิตเทเกอร์ ครอบครัวที่ ‘เลือดชิด’ ที่สุดในอเมริกา

เสียงเห่าขรม เพิงเล็กๆ ริมถนนคดเคี้ยว และคนในครอบครัวที่ถูกเรียกว่า ‘เลือดชิด’ ที่สุดในสหรัฐอเมริกา

เรื่องราวของบ้านวิตเทเกอร์ถูกเผยแพร่ครั้งแรกทางยูทูบเมื่อปี 2020 โดยช่างภาพที่ไปพบพวกเขาโดยบังเอิญระหว่างเดินทาง ซึ่งด้านหนึ่งนำสายตาจากคนทั้งเมืองมาสู่ครอบครัวเล็กๆ ครอบครัวนี้

พิมพ์ชนก พุกสุข

27 Jul 2023

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

Allow All
Manage Consent Preferences
  • Always Active

Save