โตมร ศุขปรีชา เรื่อง
ไม่มีใครไม่รู้ ว่าเทรนด์สำคัญของโลก ก็คือการมุ่งหน้าสู่ปัญญาประดิษฐ์หรือ AI
สมัยก่อน เครื่องจักรเหล่านี้มีความฉลาดในแบบที่มนุษย์ต้องใส่ข้อมูลบางอย่างเข้าไปให้ เช่น หุ่นยนต์ท่ีใช้เล่นหมากล้อม มนุษย์ก็อาจต้องป้อนข้อมูลเกี่ยวกับการเล่นต่างๆ เข้าไป ทั้งข้อมูลการเล่นของนักเล่นมืออาชีพ มือสมัครเล่น ฯลฯ แล้วปัญญาในหุ่นยนต์ก็จะนำข้อมูลใหม่ที่ได้ไปเปรียบเทียบกับข้อมูลเก่าที่มีอยู่ ว่าควรจะตอบสนองอย่างไร พูดง่ายๆ ก็คือ มันไม่ได้ ‘คิด’ มากเท่ากับ ‘จำ’ หรือนำแบบแผนที่ได้จากการขุดความทรงจำเก่าๆ ขึ้นมา
แต่หุ่นยนต์รุ่นใหม่ๆ อย่างเช่นหุ่นยนต์เล่นเกมหมากล้อมอย่าง Alphago Zero (ซึ่งจริงๆ จะบอกว่าเป็นหุ่นยนต์ก็ไม่ถูกนัก ต้องบอกว่าเป็นคอมพิวเตอร์โปรแกรมมากกว่า) มีพัฒนาการก้าวไกลไปอีกขั้น ด้วยการที่ไม่ได้อาศัย ‘ก้อนข้อมูล’ แบบเดิม แต่มันฝึกตัวเองด้วยการ ‘เล่นกับตัวเอง’ แล้วก็ค่อยๆ พัฒนาความเก่งขึ้นเรื่อยๆ ด้วยความที่เป็น AI มันจึงเล่นได้เร็วมาก คือในวันที่ 0 มันไม่มีความรู้อะไรเลย แต่ใน 3 วัน เล่นได้ชนะ Alphago ตัวเก่าอย่าง Alphago Lee แล้วก็ค่อยๆ เรียนรู้ด้วยตัวเองให้เก่งขึ้นไปเรื่อย แล้วไปชนะ Alphago Master ได้ในวันที่ 21 ซึ่งพอถึงวันที่ 40 ก็เรียกได้ว่าต้องเหลือแต่ตัวเองให้เล่นกับตัวเองแล้วล่ะครับ เพราะเก่งมากในแบบที่เหนือมนุษย์
แต่ Alphago ยังไม่ได้เกี่ยวข้องโดยตรงกับชีวิตของเราเท่าไหร่ใช่ไหมครับ มันจะฉลาดสักแค่ไหนก็ไม่ได้มายุ่งเกี่ยวอะไรกับเรามากนัก มันจะคิดอะไรอย่างไร ต่อให้เราไม่รู้ก็ไม่เป็นไร
ทว่าลองนึกดูสิครับ ว่าถ้าวันหนึ่งคุณไปสมัครทำประกันชีวิต แล้วบริษัทประกันปฏิเสธคุณ พอคุณถามถึงเหตุผล บริษัทประกันก็ส่ายหน้า บอกว่าไม่รู้ เพราะว่าบริษัทใช้ AI ในการประเมิน และอัลกอริธึมที่ AI ใช้นั้น มันสลับซับซ้อนมากจนไม่รู้จริงๆ ว่าเหตุผลที่คุณถูกคัดออกไม่ได้ไปต่อนั้นคืออะไร
ไม่ใช่แค่เรื่องประกันนะครับ แต่ในอีกไม่นาน หลายวงการมีแนวโน้มแบบเดียวกัน คือจะประมวลผลเพื่อการตัดสินใจในเรื่องต่างๆ โดยใช้ AI เข้ามาช่วย เช่น การขอกู้เงิน หรือที่อาจแย่ไปกว่านั้นและฟังดูเป็นนิยายวิทยาศาสตร์มากๆ ก็คือ จู่ๆ คุณก็ถูกตำรวจเรียกตัวไปสอบสวน เพราะว่าซูเปอร์คอมพิวเตอร์มันประมวลผลแล้วบอกว่าคุณต้องสงสัยว่ากำลังวางแผนก่ออาชญากรรมบางอย่างอยู่ เนื่องจาก AI ใช้ระบบประมวลผลข้อมูลเพื่อทำนายเหตุการณ์ในอนาคต และมันบอกว่าคุณเข้าข่ายต้องสงสัยอยู่ ซึ่งถ้าคุณเป็นผู้บริสุทธิ์ คุณอาจอยากถามตำรวจว่ามีวิธีประมวลผลอย่างไร ตำรวจก็อาจตอบไม่ได้ด้วยซ้ำเนื่องจากข้อมูลมันมหาศาลมากเสียจนเราไม่อาจเข้าใจได้ว่าเกิดอะไรขึ้นในอัลกอริธึมของ AI
อย่างไรก็ตาม อย่าเพิ่งตระหนกตกใจไปนะครับ เพราะสิ่งที่พูดขึ้นข้างต้น เป็นเพียงฉากจำลองความกังวลของคนในวงการเทคโนโลยีเท่านั้น ข่าวดีก็คือ บริษัทที่ปรึกษาและตรวจสอบอย่าง PricewaterhouseCoopers (หรือ PwC) เพิ่งรายงานว่า การที่องค์กรต่างๆ หันมาใช้ AI ในการประมวลผลนั้น จะทำให้เศรษฐกิจโลกมีมูลค่าเพิ่มขึ้นถึง 15.7 ล้านล้านเหรียญ ในปี 2030 โดย AI อาจถูกนำไปใช้งานในหลายวงการ เช่น การวิจัยทางการแพทย์ การวินิจฉัยโรค (โดยเฉพาะโรคระบาด) รถยนต์ไร้คนขับ ความมั่นคงของชาติ เป้าหมายทางการทหาร และการตัดสินคดีอาชญากรรม
แต่คำถามก็คือ สิ่งที่เราได้มานั้นมี ‘ราคา’ อะไรบ้างที่เราต้องจ่ายออกไปก่อน?
อย่างแรกสุดก็คือความซับซ้อนของอัลกอริธึมที่ใช้นี่แหละครับ เพราะมนุษย์ที่สร้างมันขึ้นมา ตอนนี้อาจไม่สามารถเข้าใจได้ทั้งหมดแล้วว่า AI ให้คำตอบนั้นๆ ออกมาได้อย่างไร
AI ในปัจจุบันทำงานเหมือนระบบประสาท ได้รับการออกแบบมาเพื่อจำลองวิธีที่สมองของมนุษย์คิด จึงมีการรับส่งข้อมูลต่างๆ ไปๆ มาๆ มากมายมหาศาล มีการประมวลผลและปรับแปลงเพื่อตอบสนองกับสิ่งที่ได้เรียนรู้ ผลลัพธ์ก็คือ AI สามารถ ‘วิเคราะห์’ ได้ และเป็นการวิเคราะห์ที่แม่นยำกว่าสมองมนุษย์ด้วยนะครับ เพราะว่ามีข้อมูลอยู่ในนั้นมหาศาล
เดวิด สเติร์น นักวิจัยจาก G-Research บอกว่า เทรนด์หนึ่งในวงการหุ่นยนต์หรือ Robotics ก็คือ Deep Reinforcement Learning ซึ่งก็คือการที่ผู้ออกแบบแค่บอกระบบว่า อยากให้มันบรรลุเป้าหมายเชิงพฤติกรรมแบบไหน แล้วระบบก็จะเรียนรู้ได้เองโดยตรงจากสิ่งแวดล้อม พูดง่ายๆ ก็คือ เหนือไปกว่า Alphago Zero อีกนะครับ ซึ่งสเติร์นบอกด้วยว่า ความก้าวหน้าของ AI ในด้านต่างๆ จะก่อให้เกิดสิ่งที่เขาเรียกว่าเป็น Black Box หรือ ‘กล่องดำ’ ในทางข้อมูลขึ้น ผลลัพธ์ที่ได้ก็คือ ‘ระบบ’ ที่เข้าใจยากขึ้นเรื่อยๆ
เรื่องหนึ่งที่นักรัฐศาสตร์หรือนักสังคมวิทยาเป็นห่วงก็คือ ฟังดูเผินๆ เหมือน AI เหล่านี้จะเป็นสิ่งไร้ความคิดจิตใจ ดังนั้นเวลามันประเมินอะไร ก็อาจจะประเมินได้อย่างเป็นกลาง ไม่มีความรู้สึกรักใคร่ชอบพออะไรมาให้คุณให้โทษใคร แต่เอาเข้าจริง ก็เป็นไปได้อย่างยิ่ง ที่ AI จะมีอคติหรือมายาคติบางอย่างซ่อนอยู่ในอัลกอริธึมของมัน เพราะ AI ตั้งต้นจากมนุษย์ที่เต็มไปด้วยอคติและมายาคติโดยไม่รู้ตัว และยังเรียนรู้จากสิ่งแวดล้อมภายนอกที่ก็อาจปนเปื้อนอคติและมายาคติหลายเรื่องด้วย
เอเดรียน เวลเลอร์ ผู้อำนวยการแผนก AI จาก The Alan Turing Institute บอกว่าเราควรคิดกับเรื่องนี้สองระดับ
ระดับแรกก็คือ ถ้า AI มันทำงานได้ดี ไว้ใจได้ ไม่มีการเลือกปฏิบัติ และปลอดภัย บางทีเราก็อาจไม่จำเป็นต้องไป ‘เข้าใจ’ หรอกว่ามันทำงานหรือ ‘คิด’ ด้วยกระบวนการอย่างไรถึงได้ผลลัพธ์ออกมาแบบนี้ เขายกตัวอย่างรถยนต์ไร้คนขับหรือการวินิจฉัยทางการแพทย์ ซึ่งในหลายแง่มุม AI ให้ผลที่ดีกว่ามนุษย์ขับหรือวินิจฉัย เช่น การวินิจฉัยโรคนั้น AI ทำได้ถูกต้องถึง 95% เป็นต้น (แม้จะไม่มีใครอยากอยู่ใน 5% ที่ถูกวินิจฉัยผิดก็ตาม)
ในอีกระดับหนึ่ง ถ้าเป็นบางเรื่องที่ส่งผลดีผลเสียต่อเรามากๆ เช่น ถ้าเราให้ AI ประมวลผลเพื่อพิพากษาคดี แล้ว AI บอกว่าควรลงโทษอาชญากรคนนี้ด้วยการจำคุกนาน 6 ปี เราก็ต้องอยากรู้ใช่ไหมครับ ว่าตัวเลข 6 ปี มาจากไหน มันมีวิธีคิดอย่างไรถึงทำให้เกิดตัวเลขนี้ขึ้นมาได้
ที่สำคัญไปกว่านั้นก็คือ แล้วเราสามารถ ‘เลือก’ ได้ไหม ว่าในกรณีของเรา เราจะให้ AI มาประมวลผล หรือจะให้มนุษย์ด้วยกันเป็นคนประมวลผล
ในเรื่องนี้ GDPR หรือ General Data Protection Regulation ของยุโรป ได้ประกาศสิทธิใหม่ขึ้นมา นั่นก็คือ ‘สิทธิที่จะรู้’ ว่ากระบวนการนั้นๆ มีการใช้ AI ในการตัดสินใจหรือไม่ เรามีสิทธิที่จะได้รับคำอธิบายและดูแลจากมนุษย์ ไม่ใช่ทอดทิ้งให้อยู่กับการตัดสินใจของ AI ล้วนๆ โดยอธิบายไม่ได้ว่าผลลัพธ์ที่เกิดขึ้นมาจากอะไร
แต่กระนั้น แม้แต่เฟซบุ๊กที่เราใช้กันอยู่ทุกวันนี้ เชื่อว่าก็ไม่มีใครอธิบายได้แน่ชัดหรอกครับ ว่าทำไมเราถึงเห็นโฆษณาตัวนั้นตัวนี้ เพราะอัลกอริธึมที่ใช้มันซับซ้อนมากเกินกว่าจะเข้าไปสางเพื่อหาที่มาที่ไปได้แล้ว
ด้วยเหตุนี้ คำถามสำคัญที่เกิดขึ้นกับ AI จึงคือ AI จะช่วยตัดสินใจในเรื่องที่เป็นประโยชน์ให้เราได้โดยที่เราอาจไม่เข้าใจอย่างถ่องแท้นัก หรือมันจะทำให้เราต้องตกเป็นทาสของระบบ โดย ‘ราคา’ ที่เราต้องจ่ายออกไป ก็คือสิทธิเสรีภาพในฐานะมนุษย์
แต่กระนั้น บางคนก็แย้งว่า ก็มีเครื่องไม้เครื่องมือทางวิทยาศาสตร์มากมาย รวมทั้งเครื่องใช้ในชีวิตประจำวันของเราด้วย ที่เราใช้มันอย่างสบายอกสบายใจโดยไม่ได้ ‘เข้าใจ’ ถึงการทำงานของมันอย่างถ่องแท้ แล้วทำไมเราถึงจะต้องกลัว AI กันขนาดนั้น