fbpx

Deepfake Porn – หนังโป๊สลับหน้า เมื่อเทคโนโลยีทำร้ายผู้หญิง

เมื่อประมาณเดือนสองเดือนก่อนถ้าใช้เวลาอยู่บนเฟซบุ๊กจะเห็นเพื่อนหลายคนกลายร่างเป็นดาราเกาหลี ใส่ชุดราตรีเดินตามท้องถนน ใช้ชีวิตหรูหรายามค่ำคืน เดินตามห้าง หรือนั่งรถหรูราคาคันหลายสิบล้าน แน่นอนว่าในชีวิตจริงเพื่อนๆ ของผมที่อยู่ในวิดีโอเหล่านั้นกำลังใช้ชีวิตอยู่ที่บ้าน เลี้ยงลูก นั่งดูเน็ตฟลิกซ์ ต้มมาม่าทานตามชีวิตคนปกติทั่วไป สิ่งที่เกิดขึ้นคือการใช้แอปพลิเคชันที่มีเทคโนโลยี deepfake ซึ่งสามารถสลับหน้าผู้ใช้งานกับคนต้นแบบในวิดีโอได้อย่างแนบเนียน

แน่นอนว่าแอปพลิเคชันเหล่านี้ถูกสร้างขึ้นมาจากหลากหลายเหตุผล บ้างก็เพื่อความสนุกสนาน บ้างหลอกเอาข้อมูล บ้างก็สร้างคอนเทนต์สำหรับโจมตีคนอื่น แต่ที่ดูเกินเลยและสร้างความเสียหายต่อบุคคลอื่นคือการสร้าง ‘คลิปโป๊’ ที่ร่างกายเป็นของนักแสดง แต่ใบหน้าเป็นของผู้หญิงคนอื่น 

บางคนอาจคิดว่าจะมีใครมาสร้างแอปพลิเคชันที่เลวร้ายและทำลายชื่อเสียงของคนอื่นแบบนี้จริงๆ เหรอ คำตอบคือมีครับ ในรายงานจากเว็บไซต์ MIT Technology Review เขียนอธิบายเอาไว้ว่ามีแอปพลิเคชันหนึ่งชื่อ Y

“มันใช้งานง่ายมาก หลังจากอัพโหลดรูปใบหน้าของคนคนหนึ่งไปเรียบร้อยแล้ว เว็บไซต์ก็จะเปิดรายการหนังโป๊ขึ้นมาให้เลือก ส่วนใหญ่แล้วเป็นผู้หญิง หลังจากนั้นผู้ใช้งานก็สามารถเลือกคลิปเพื่อสร้างวิดีโอตัวอย่างว่าถ้าสลับหน้าแล้วจะออกมาอย่างไรภายในเวลาไม่กี่นาที หลังจากนั้นก็จ่ายเงินเพื่อดาวน์โหลดเวอร์ชันเต็ม”

Y ก็ใช้เทคโนโลยี deepfake เช่นเดียวกัน ซึ่งไม่ว่าใครก็ตามที่รู้ว่าภาพของตัวเองถูกนำไปใช้เพื่อผลิตหนังโป๊แบบนี้ ล้วนรู้สึกว่ามันสร้างความเสียหายต่อสภาพจิตใจเป็นอย่างมาก

ถ้าย้อนกลับไปสักหน่อยถึงประวัติของเทคโนโลยีนี้ deepfake เป็นแขนงหนึ่งของ AI (Artificial Intelligence) ที่สามารถสร้างคอนเทนต์ได้จากตัวอย่างจริงนั้นเอง คำว่า ‘deepfake” ถูกกล่าวถึงครั้งแรกบนเว็บไซต์ Reddit ที่มาจากการรวมกันของ ‘deep learning’ กับ ‘fake’

deep learning คือซอฟต์แวร์ที่ตัดสินใจและสร้างผลลัพธ์จากพื้นฐานของประสบการณ์ที่ผ่านมาแล้ว เหมือนสมองมนุษย์ที่เชี่ยวชาญทางด้านใดด้านหนึ่ง ยกตัวอย่างง่ายๆ อย่างรถยนต์ไร้คนขับของ Tesla นั้นใช้ข้อมูลจากการขับในอดีตมาใช้เพื่อการตัดสินใจและทำงาน ส่วน deepfake ก็ใช้ deep learning เพื่อสร้างคอนเทนต์ที่เหมือนจริงโดยการสลับใบหน้าและแปลงเสียงในเวลาเดียวกัน (ใช่ครับ เสียงด้วย) ใครเคยเห็นคลิปของทอม ครูซบนติ๊กต็อกที่ใช้ deepfake บ้างครับ ถ้ายังไม่เคย ลองคลิกดูได้ที่คลิปนี้

ตอนดูครั้งแรกแม้จะรู้ว่าเป็นของปลอม แต่ก็ยังอดตั้งคำถามในหัวไม่ได้เลยว่า “เอ๊ะ…หรือว่าเป็นของจริงกันนะ?” เพราะผลลัพธ์ที่ออกมานั้นเหมือนจริงมากชนิดที่ว่าแยกออกยากมากๆ ซึ่งโดยคอนเซ็ปต์ของเทคโนโลยีแล้วนั้น เรื่องนี้น่าสนุกและน่าตื่นเต้น แต่เมื่อมันถูกเอาไปใช้ในทางที่ผิดอย่างการปลอมเป็นคนอื่นเพื่อแสวงหาผลลัพธ์หรือเพื่อก่อความเข้าใจผิด (เช่นโดนัล ทรัมป์ตัวปลอมประกาศสงครามกับรัสเซีย) หรือสร้างหนังโป๊โดยใช้ใบหน้าของคนอื่นทำให้เสียหายทั้งภาพลักษณ์และจิตใจ (ตอนนี้กลายเป็นสัดส่วนของคอนเทนท์ที่ถูกสร้างโดยเทคโนโลยีนี้มากที่สุดด้วย) ย่อมไม่ใช่เรื่องน่าสนุก ลองคิดดูว่าถ้ามีคนไม่ประสงค์ดีเอาภาพของคุณไปสร้างคลิปโป๊มาแบล็กเมล์คุณว่าจะส่งให้หัวหน้างานดู ถ้าคุณไม่ทำตามข้อตกลงบางอย่าง หรืออยู่ๆ พอไปค้นหาชื่อคุณแล้วกลับเจอคลิปโป๊ที่คุณรู้ว่าไม่ใช่คุณ แต่โลกไม่ได้รู้ไปกับคุณด้วย หรืออาจจะเป็นคนที่คุณรู้จัก น้องสาว พี่สาว เพื่อน ฯลฯ สิ่งเหล่านี้ล้วนเกิดขึ้นได้ทั้งนั้น

หลายคนอาจคิดว่าเรื่องเหล่านี้เกิดขึ้นกับดาราและคนมีชื่อเสียงเท่านั้น แต่ความจริงคือทุกคนมีโอกาสตกเป็นเหยื่อได้ไม่ต่างกัน

มีเคสหนึ่งของนักเขียนหญิงชื่อเฮเลน มอร์ต (Helen Mort) ที่เพื่อนมาบอกเธอว่ามีเว็บไซต์ที่มีภาพโป๊ของเธอบนนั้น แน่นอนเฮเลนรู้ว่าไม่ใช่ภาพจริงอย่างแน่นอน เพราะเธอไม่เคยแชร์หรือส่งต่อภาพเหล่านี้ให้ใคร ดังนั้นจึงเป็นไปไม่ได้เลยว่าเป็นภาพหลุดของเธอ อาจจะเป็นดาราเอวีที่หน้าตาคล้ายกัน แต่ไม่ใช่ ภาพนั้นเป็นใบหน้าของเธออย่างชัดเจน

สิ่งที่เกิดขึ้นก็คือมีใครบางคนเอารูปของเธอจากโซเชียลมีเดีย (ซึ่งตอนนี้เธอลบไปแล้ว) อัปโหลดขึ้นเว็บโป๊แล้วยุให้ผู้ใช้งานคนอื่นๆ ลองทำภาพโป๊ของเธอออกมาโดยใช้ deepfake แม้ว่าบางอันดูออกได้ว่าปลอม แต่ก็มีหลายอันดูเหมือนจริงจนน่าตกใจ

แต่ไม่ว่าอย่างไรก็ตามเธอทั้งโกรธและรู้สึกว่าตัวเองถูกล่วงละเมิดอย่างมาก เธอให้สัมภาษณ์กับ MIT Technology Review ว่า “มันทำให้คุณรู้สึกเหมือนไร้เรี่ยวแรง เหมือนโดนกระทำ ถูกลงโทษในฐานะผู้หญิงที่กล้าพูดสิ่งที่ตัวเองคิดออกมาในที่สาธารณะ นั่นคือคำอธิบายที่ชัดเจนที่สุด เหมือนกับจะบอกว่า ‘ดูสิ เราทำแบบนี้กับคุณได้นะ’”

แน่นอนว่าเฮเลนไม่ใช่ผู้หญิงคนเดียวที่ตกเป็นเหยื่อของการล่วงละเมิดแบบนี้ ในการพูดบนเวที TED Talk ปี 2018 โนเอลล์ มาร์ติน (Noelle Martin) เล่าถึงประสบการณ์ของเธอว่าหลังจากที่ใช้ Google Image Search หาภาพของตัวเอง เธอก็ไปเจอรูปของเธอที่ถูกดัดแปลงด้วยเทคโนโลยีแล้วโพสต์ไว้บนเว็บโป๊ต่างๆ ทั่วอินเทอร์เน็ต เธอใช้เวลาหลายปีในการพยายามต่อสู้ด้วยตัวเอง ส่งอีเมลไปหาเว็บไซต์ต่างๆ แต่ก็ไม่เป็นผล สุดท้ายเธอเลยออกมาพูดถึงสิ่งที่เกิดขึ้นในที่สาธารณะจนมีคนแชร์เยอะขึ้นเรื่อยๆ และพยายามเปลี่ยนแปลงตัวกฎหมายเพื่อเอาโทษคนที่กระทำผิดเหล่านี้แทน

เธอบอกว่า “ขณะที่ฉันกำลังพูดอยู่นี้ มีผู้หญิงอีกหลายพันหลายหมื่นคนที่กำลังตกเป็นเหยื่อโดยไม่รู้ตัวเลยด้วยซ้ำ”

เว็บไซต์ Sensity AI ผู้เชี่ยวชาญเรื่องเทคโนโลยี deepfake คาดการณ์ว่าจำนวนวิดีโอที่ถูกสร้างขึ้นด้วยวิธีนี้จะเยอะมากขึ้นเรื่อยๆ ในปีนี้น่าจะสูงถึง 180,000 วิดีโอ และ 96% จะเป็นคอนเทนต์เกี่ยวกับเรื่องทางเพศทั้งสิ้น

Adam Dodge ผู้ก่อตั้งองค์กรไม่แสวงหากำไรที่จัดการกับการละเมิดทางเทคโนโลยีเป็นห่วงและกังลเกี่ยวกับเรื่องนี้อย่างมาก เขากล่าวในการสัมภาษณ์ว่า “มันช่างเป็นเครื่องมือที่สมบูรณ์แบบสำหรับคนที่ต้องการใช้อำนาจและควบคุมเหยื่อ นี่เป็นประเด็นปัญหาความรุนแรงต่อผู้หญิงอย่างชัดเจน”

หลายคนอาจจะสงสัยว่า แล้วแบบนี้จะมีอะไรที่ทำเพื่อต่อกรหรือป้องกันได้บ้าง? คำตอบคือ ค่อนข้างท้าทายทีเดียว ไม่ว่าเรื่องระบบโครงสร้างทางกฎหมายหรือการจำกัดการเข้าถึงเทคโนโลยี ทั้งสองทางต่างก็ไม่ง่ายทั้งนั้น 

อย่างแรก เรื่องกฎหมาย เป็นไปได้ยากที่จะแบนเทคโนโลยี deepfake ไปเลย เพราะมันสามารถนำมาใช้ให้เกิดประโยชน์ได้ เช่น การปกปิดตัวพยานบุคคลในการให้ปากคำ ปกป้องความเป็นส่วนตัวด้วยการสลับใบหน้า โดยที่ยังสามารถแสดงอารมณ์ความรู้สึกได้อยู่ โดยคนที่เห็นไม่ต้องทราบตัวตนที่แท้จริง หรือเราเห็น deepfake ถูกใช้เพื่อให้คนรักที่จากโลกนี้ไปแล้วสามารถขยับหรือพูดผ่านวิดีโอได้ ก็ถือเป็นการใช้งานที่ไม่เลวร้ายอะไรนัก

อีกอย่างหนึ่งคือพอเกิดกรณีแบบนี้ขึ้นแล้วไม่มีคนมารายงาน ก็ยากที่จะเปลี่ยนแปลงข้อกฎหมาย เพราะไม่รู้ถึงขอบเขตความเสียหายของเทคโนโลยีที่เกิดขึ้น ต้องมีหลักฐานและผลที่ตามมาด้วย ซึ่งนั่นก็คือสิ่งที่เฮเลนและโนเอลล์กำลังพยายามทำอยู่ แม้ทุกครั้งจะโดนแซะหรือโดนตอกกลับมาว่าพวกเธอเองรึเปล่าที่แต่งตัวล่อแหลมหรือยั่วยุให้เกิดเรื่องเหล่านี้ขึ้น เรียกอีกอย่างว่าเป็นการโทษเหยื่อและพวกเขาสมควรได้รับสิ่งที่เกิดขึ้นแล้ว (victim blaming/slut shamed) 

แน่นอนว่าการออกมาพูดเรื่องนี้ไม่ใช่เรื่องง่าย ด้วยความกล้าหาญของผู้หญิงที่ออกมาพูดและเรียกร้องความถูกต้อง ตอนนี้กฎหมายเริ่มเป็นรูปเป็นร่าง มีการขอรายชื่อบนเว็บไซต์ change.org เพื่อสร้างข้อบังคับที่รัดกุมมากขึ้นเกี่ยวกับเรื่องนี้

การจัดการเกี่ยวกับเทคโนโลยีเหล่านี้ต้องพึ่งพาหลายๆ ส่วน โชคดีที่บริษัทใหญ่ๆ อย่าง Google หรือ Amazon พยายามท้าทายให้ผู้เชี่ยวชาญทางด้านซอฟต์แวร์ประดิษฐ์นวัตกรรมเพื่อตรวจสอบ deepfake video ซึ่งวิธีการนี้ หน้าที่ของการค้นหาและต่อสู้ก็จะถูกวางไว้บนแพลตฟอร์มใหญ่ๆ เอง ซึ่งถ้าทำสำเร็จ คนที่เป็นเหยื่อก็ไม่ต้องไล่ตามวิดีโอของตัวเองและติดต่อเว็บไซต์หลายร้อยแห่งเพื่อเอามันออก แต่เป็นหน้าที่ของเว็บไซต์และแพลตฟอร์มต่างๆ เองที่ควรช่วยดูแลและตรวจสอบพื้นที่เหล่านี้ให้ผู้ใช้งานรู้สึกปลอดภัย

แต่ไม่มีใครรู้หรอกว่าเมื่อไหร่จะไปถึงตรงนั้น ตราบใดที่ยังไม่มีคำตอบหรือหนทางต่อกรกับเรื่องนี้อย่างแน่นอน บัญชีโซเชียลมีเดียต่างๆ ก็ควรเก็บเป็น private ไว้จะดีกว่า

====================

อ้างอิง

https://toonme.com/

In the battle against deepfakes, AI is being pitted against AI

Deepfake porn is ruining women’s lives. Now the law may finally ban it.

Deep learning vs. machine learning: a simple way to learn the difference

Tighten regulation on taking, making and faking explicit images

MOST READ

Life & Culture

14 Jul 2022

“ความตายคือการเดินทางของทั้งคนตายและคนที่ยังอยู่” นิติ ภวัครพันธุ์

คุยกับนิติ ภวัครพันธุ์ ว่าด้วยเรื่องพิธีกรรมการส่งคนตายในมุมนักมานุษยวิทยา พิธีกรรมของความตายมีความหมายแค่ไหน คุณค่าของการตายและการมีชีวิตอยู่ต่างกันอย่างไร

ปาณิส โพธิ์ศรีวังชัย

14 Jul 2022

Life & Culture

27 Jul 2023

วิตเทเกอร์ ครอบครัวที่ ‘เลือดชิด’ ที่สุดในอเมริกา

เสียงเห่าขรม เพิงเล็กๆ ริมถนนคดเคี้ยว และคนในครอบครัวที่ถูกเรียกว่า ‘เลือดชิด’ ที่สุดในสหรัฐอเมริกา

เรื่องราวของบ้านวิตเทเกอร์ถูกเผยแพร่ครั้งแรกทางยูทูบเมื่อปี 2020 โดยช่างภาพที่ไปพบพวกเขาโดยบังเอิญระหว่างเดินทาง ซึ่งด้านหนึ่งนำสายตาจากคนทั้งเมืองมาสู่ครอบครัวเล็กๆ ครอบครัวนี้

พิมพ์ชนก พุกสุข

27 Jul 2023

Life & Culture

4 Aug 2020

การสืบราชสันตติวงศ์โดยราชสกุล “มหิดล”

กษิดิศ อนันทนาธร เขียนถึงเรื่องราวการขึ้นครองราชสมบัติของกษัตริย์ราชสกุล “มหิดล” ซึ่งมีบทบาทในฐานะผู้สืบราชสันตติวงศ์ หลังการเปลี่ยนแปลงการปกครองโดยคณะราษฎร 2475

กษิดิศ อนันทนาธร

4 Aug 2020

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

Allow All
Manage Consent Preferences
  • Always Active

Save