This post is also available in: อังกฤษ
โพสต์นี้เผยแพร่ครั้งแรกเมื่อวันที่ 04 มีนาคม 2020 ใน Coconet.social.
แปลไทยโดย ธีรดา ณ จัตุรัส
บทความนี้เป็นชิ้นที่สามของซีรีย์บทความที่เกี่ยวกับผลกระทบทางสิทธิมนุษยชนที่เกิดจากปัญญาประดิษฐ์ (Artificial intelligence: AI) ในบริบทของเอเชียตะวันออกเฉียงใต้ ความเดิมจากบทความที่แล้ว เราได้พูดถึงนัยยะสำคัญของ AI ที่มีผลกระทบต่อสิทธิทางเศรษฐกิจ สังคม และวัฒนธรรม โดยได้กล่าวถึงประโยชน์ของการใช้ AI ในด้านการพัฒนาหากนำไปใช้อย่างเหมาะสม แต่ยังคงมีความกังวลทางด้านสิทธิมนุษยชนที่เกี่ยวกับความปลอดภัยของ AI และผลลัพธ์อันไม่พึงประสงค์ที่อาจจะเกิดขึ้นได้
ในบทความนี้ เราจะมาพิจารณากันในรายละเอียดว่า จะเกิดอะไรขึ้นเมื่อ AI ถูกพัฒนาเพื่อนำมาใช้เป็นอาวุธที่ละเมิดสิทธิพลเมืองและสิทธิทางการเมือง (civil and political rights – CPR) เช่น สิทธิในการมีชีวิตและสิทธิในการกำหนดชะตากรรมตนเอง และรวมทั้งสิทธิในการแสดงออก เสรีภาพของปัจเจกบุคคล สิทธิในการนับถือศาสนา การสมาคม และสิทธิอื่นๆ
ด้วยพื้นที่อันจำกัดในบทความชิ้นนี้ จึงเป็นไม่ได้ที่กล่าวถึงผลกระทบต่อสิทธิพลเมืองและสิทธิทางการเมืองได้ทุกประเด็น แต่เราจะเน้นถึง 3 ภัยคุกคามหลัก คือ การสอดส่องมวลชนโดยรัฐ (mass surveillance) เทคนิคการเจาะกลุ่มเป้าหมายเฉพาะเพื่อมุ่งเปลี่ยนแปลงผลการเลือกตั้ง และการใช้ AI ในการสร้างข้อมูลที่ตั้งใจผิดหรือทำให้เข้าใจผิด (disinformation) ส่วนผู้ที่สนใจค้นหาเพิ่มเติมสามารถดูได้ที่รายงานเกี่ยวกับการนำ AI มาใช้ในทางที่ไม่ดีที่ส่งผลกระทบให้เกิดอันตรายทางดิจิทัล ทางร่างกาย และทางความมั่นคงทางการเมือง
AI สามารถนำมาใช้เป็นอาวุธเพื่อนำมาละเมิดสิทธิพลเมืองและสิทธิทางการเมือง
AI ถูกนำมาใช้เพื่อการสอดส่องมวลชนโดยรัฐบาล
ความเป็นส่วนตัวถือเป็นสิทธิมนุษยชนขั้นพื้นฐาน และการละเมิดสิทธิความเป็นส่วนตัวย่อมส่งผลกระทบต่อสิทธิอื่นๆ เช่น สิทธิทางการแสดงออก การชุมนุม และการรวมกลุ่มสมาคม ในภูมิภาคเอเชียตะวันออกเฉียงใต้ หากพิจารณาบรรทัดฐานของประชาธิปไตยของรัฐบาลเกือบทุกประเทศมีแนวโน้มเอนเอียงไปทางฝั่งอำนาจนิยม รัฐบาลเหล่านี้ได้แสดงให้เห็นว่าสามารถขยายการปราบปรามผู้ที่เห็นต่างทางการเมืองอย่างกว้างขวาง เช่น การบังคับใช้กฎหมายที่รุนแรงในการลงโทษ หรือการใช้มาตรการนอกกฎหมายที่มาคุกคามผู้ที่เห็นต่าง
เมื่อพิจารณาความสามารถของ Machine Learning ทำให้การโยกย้ายชุดข้อมูลมหาศาลเป็นเรื่องทำที่ได้ง่ายดายและราคาไม่แพงแบบที่ไม่เคยมีมาก่อน เป็นผลทำให้การสอดส่องมวลชนมีราคาถูกลงและมีประสิทธิภาพเพิ่มมากขึ้นอีกด้วย ภายใต้เงื่อนไขเหล่านี้ทำให้บุคคลที่มีอิทธิพลสามารถที่จะสืบทอดอำนาจได้ง่ายมากขึ้น
ตารางด้านล่างนี้ได้นำข้อมูลมาจาก AI Global Surveillance Index (AIGS 2019) โดยได้คัดเลือก 7 ประเทศจากภูมิภาคเอเชียตะวันออกเฉียงใต้ (ซึ่งไม่รวมถึงบรูไน เวียดนาม กัมพูชา และติมอร์เลสเต เนื่องจากไม่มีการเก็บข้อมูล) จากดัชนีนี้ พบว่าเกือบทุกประเทศในภูมิภาคนี้โดยมากจะใช้เทคโนโลยีเพื่อสอดส่องอย่างสองประเภทหรือมากกว่านั้น เช่น ในรูปแบบการใช้เทคโนโลยีการสอดส่องในเมืองอัจฉริยะ (smart city) หรือเมืองที่ปลอดภัย การใช้เทคโนโลยีจดจำใบหน้า (facial recognition) และวิธีการตรวจตราแบบ smart policing จากดัชนีนี้เรายังพบอีกว่า ประเทศทั้งหมดเหล่านี้ได้นำเข้าเทคโนโลยีเพื่อสอดส่องมาจากประเทศจีน รวมถึงการซื้อเทคโนโลยีจากสหรัฐอเมริกาอีกด้วยถึงแม้ว่าจะน้อยกว่าจีนก็ตาม
Country | Smart/Safe City | Facial Recognition | Smart Policing | Chinese Tech | US Tech | Key Companies |
---|---|---|---|---|---|---|
Burma/Myanmar | / | / | / | Hikvision, Huawei | ||
Indonesia | / | / | / | / | / | Huawei, NEC, PT Industri Telekomunikasi Indonesia |
Laos | / | / | / | Huawei | ||
Malaysia | / | / | / | / | Huawei, NEC, Yitu | |
Philippines | / | / | / | / | / | Boeing, CITCC, IBM, Huawei |
Singapore | / | / | / | / | / | Accenture, AGT, Airbus, Dassault, Huawei, Nec, Tascent, Yitu |
Thailand | / | / | / | Huawei, Megvii, Panasonic, ZTE |
เพื่อให้ภาพที่กว้างขึ้น มีอย่างน้อย 75 ประเทศใน 176 ประเทศที่ปรากฏอยู่ในรายงาน AIGS 2019 กำลังใช้ AI เพื่อการสอดส่องประชาชน และหลายประเทศก็จัดอยู่ในกลุ่มประเทศแนวเสรีนิยมประชาธิปไตยด้วย โดยดัชนีนี้ไม่ได้แบ่งแยกการใช้ AI แบบที่ถูกกฎหมายหรือผิดกฎหมาย แต่เมื่อกลับมาพิจารณาบริบทของเอเชียตะวันออกเฉียงใต้ ภาคประชาสังคมอาจต้องเตรียมพร้อมในการเฝ้าระวังการใช้ AI เพื่อจุดประสงค์ในการสอดส่องโดยรัฐบาล
รายงานฉบับหนึ่งจาก CSIS ชี้ให้เห็นถึงการใช้ “Safe City” ซึ่งพัฒนาโดยบริษัทยักษ์ใหญ่ Huawei กลายมาเป็นทางเลือกให้หลายประเทศในกลุ่มที่อยู่ในสถานะไม่มีเสรีภาพ และเป็นที่น่ากังวลว่าประเทศจีนกำลังส่งออกระบอบอำนาจนิยม (authoritarianism) ไปในต่างประเทศ ทางประเทศจีนเองได้ใช้เทคโนโลยีการจดจำใบหน้า (ซึ่งพัฒนาโดยบริษัทจีนที่มีความเชี่ยวชาญทาง AI อาทิ Yitu, Megvii, SenseTime และ CloudWalk) ซึ่งนำมาใช้ทำโปรไฟล์และติดตามชาวมุสลิมอุยกูร์ และนั่นยังเป็นที่รู้จักกันดีว่าชาวอุยกูร์จำนวนเกือบถึงหนึ่งล้านคนได้ถูกคุมขังในค่ายกักกันแบบเผด็จการเพื่อปรับทัศนคติให้นักโทษ (“re-education camps”) ทำให้เห็นภาพของความเป็นไปได้ที่กลายเป็นข้อกังวลของการละเมิดสิทธิมนุษยชนและการสอดส่องมวลชน
13 ประเทศในภูมิภาคเอเชียมีการสอดส่องทางโซเชียลมีเดีย
นอกจากนี้ยังมีรูปแบบการสอดส่องโดยรัฐที่รวมไปถึงการสอดส่องผ่านโซเซียลมีเดียและการใช้ AI ในการเก็บและวิเคราะห์ข้อมูลส่วนบุคคล รวมไปถึงเมตะดาต้าจากแพลตฟอร์มของโซเซียลมีเดียต่างๆ รายงาน Freedom on the Net (FOTN) ประจำปี 2562 ระบุว่า 13 ประเทศ จาก 15 ประเทศในภูมิภาคเอเชียที่กำลังมีการสอดส่องทางโซเซียลมีเดียหรืออยู่ในช่วงที่กำลังพัฒนาโปรแกรม AI เพื่อจุดประสงค์นี้อยู่ แต่รายงานไม่ได้ระบุว่าประเทศไหนจัดอยูในกลุ่มที่กำลังใช้ หรือกำลังพัฒนาโปรแกรม AI นี้อยู่ แต่ก็มีความเป็นไปได้ค่อนข้างสูงสำหรับ 8 ประเทศที่อยู่ในรายงานฉบับนี้ ได้แก่ ฟิลิปปินส์ มาเลเซีย สิงคโปร์ อินโดนีเซีย กัมพูชา เมียนมา ไทย และเวียดนาม
โดยรายงาน Freedom on the Net ยังได้เน้นไปที่ฟิลิปปินส์และเวียดนาม ซึ่งจากรายงานเมื่อปี 2561 เวียดนามได้ประกาศจัดตั้งหน่วยงานแห่งชาติที่มีจุดประสงค์ในการสอดส่องดูแลโดยเฉพาะ โดยมีการติดตั้งเครื่องมือเทคโนโลยีที่ช่วยในการวิเคราะห์ ประเมินผล และคัดกรองโพสต์หลายล้านข้อความจากโซเซียลมีเดีย และในปีเดียวกันนี้ กองทัพสหรัฐฯได้ฝึกเจ้าหน้าที่ทางการของฟิลิปปินส์ เพื่อก่อตั้งหน่วยงานใหม่ที่ไว้สอดส่องทางโซเซียลมีเดีย ซึ่งรายงานระบุว่า หน่วยงานนี้จะป้องกันการแพร่กระจายของข้อความที่บิดเบือนโดยกลุ่มผู้ก่อการร้าย
การสอดส่องทางดิจิทัลโดยรัฐบาลยังมีผลกว้างออกไปนอกจากแพลตฟอร์มโซเซียลมีเดีย โดยในปี 2561 หน่วยต่อต้านอาชญากรรมแก่เยาวชนบนอินเตอร์เน็ตแห่งมาเลเซีย (Malaysia Internet Crime Against Children – Micac) ที่อยู่ภายใต้สังกัดกรมตำรวจแห่งประเทศมาเลเซีย ได้แสดงความสามารถทางการสอดส่องของหน่วยงานให้แก่นักข่าวท้องถิ่น โดยการติดตามผู้ใช้ที่มีเนื้อหาอนาจารในลักษณะแบบเรียลไทม์ และได้สร้างสิ่งที่เรียกว่า “ห้องสมุดแห่งข้อมูลของบัญชีผู้ใช้โซเซียลมีเดีย” (data library) นี่ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เช่นเดียวกับแถลงการณ์โดยกลุ่มภาคประชาสังคมใน ASEAN
เทคนิคการเจาะจงกลุ่มเป้าหมาย เพื่อเปลี่ยนพฤติกรรมของผู้มีสิทธิเลือกตั้ง
ในภูมิภาคเอเชียตะวันออกเฉียงใต้นี้ ภาคประชาสังคมได้มุ่งจับตามองการสอดส่องจากรัฐมากกว่าจากบริษัทเอกชน อย่างไรก็ดี ผลกระทบที่มาจากการสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ โดยเฉพาะบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Facebook และ Google อาจจะมีผลกระทบที่เช่นเดียวกับการสอดส่องจากรัฐ หรือแม้แต่การสอดส่องที่ส่งเสริมโดยบริษัทต่างๆ จะมีผลกระทบมากกว่า ลองคิดดูสิว่า เมื่อมีเทคโนโลยี AI เข้ามาเกี่ยวข้องกับข้อมูลมากมายอย่างที่จินตนาการไม่ถึง เทคโนโลยี AI นี่เองที่จะช่วยให้การบริการภาคธุรกิจเพื่อการคาดการณ์และนำมาเปลี่ยนพฤติกรรมของผู้ใช้บริการเพื่อตอบสนองต่อบริษัทโฆษณา ปัญหานี้มีนัยยะที่สำคัญ เมื่อบริษัทโฆษณาทั้งหลายได้ผันตัวเองมาเป็นผู้บริการด้านโฆษณาทางดิจิทัลให้กับกลุ่มการเมืองต่างๆ ซึ่งตั้งเป้าหมายเพื่อเปลี่ยนความคิดเห็นของผู้คน หรือพฤติกรรมของผู้มีสิทธิเลือกตั้ง และการเปลี่ยนความคิดเห็นสาธารณะหรือพฤติกรรมการเลือกตั้ง ย่อมกระทบต่อสิทธิในการเลือกตั้งของปัจเจกบุคคล
เมื่อ 5 ปีก่อน นักวิจัยหลายคนพบว่า machines สามารถล่วงรู้เกี่ยวกับตัวคุณเองได้ดีกว่าใครๆ ซึ่งเรียนรู้มาจากการที่คุณกด Like บน Facebook นั่นเอง (เพียงแค่ machines ดูจากการที่คุณกด Like จำนวน 300 ครั้งเท่านั้น machines สามารถคาดการณ์จากพฤติกรรมของคุณมากกว่าแฟนของคุณเสียอีก และข้อมูลเพียงแค่จากการที่คุณกด Link จำนวน 10 ครั้งเท่านั้นก็ทำให้ machines ประมวลผลและรู้จักตัวคุณดีกว่าเพื่อนร่วมงานของคุณเสียอีก) นับตั้งแต่ที่มีข่าวอื้อฉาวเกี่ยวกับ AI ใน Facebook อย่างกรณีการละเมิดความเป็นส่วนตัวของผู้ใช้บริการโดยบริษัท Cambridge Analytica ซึ่งสามารถเข้าถึงข้อมูลส่วนตัวของผู้ใช้บริการบน Facebook เป็นจำนวนสิบๆล้านคนอย่างผิดกฏหมาย โดยที่บริษัทสามารถเก็บและสร้างข้อมูลของผู้ใช้ Facebook ที่คลิกตอบแบบทดสอบบุคคลิกภาพของ Cambridge Analytica แล้วนำข้อมูลนั้นมาจัดทำโปรไฟล์เกี่ยวกับลักษณะทางจิตวิทยาของผู้บริโภค ทำเกิดการใช้เทคนิคเลือกกลุ่มเป้าหมายที่เฉพาะเจาะจง เพื่อมีจุดประสงค์ในการโน้มน้าวการตัดสินใจลงคะแนนเสียงต่อผู้เข้าแข่งชิงตำแหน่งพรรคนั้นๆ หรือที่เรียกว่า microtargeting ด้วยข้อความโฆษณาหลากหลายที่ทำให้ผลการเลือกตั้งประธานาธิบดีในสหรัฐอเมริกาเมื่อปี 2559 มีความผันผวน ยังมีการกล่าวถึงด้วยอีกว่า กลยุทธ์แบบเดียวกันนี้ได้ถูกนำมาใช้ในการจูงใจผู้เลือกตั้งในสหราชอาณาจักร และส่งผลกระทบต่อผลการลงประชามติจากการออกจากยุโรปของสหราชอาณาจักร หรือ Brexit
ด้วยการมีผู้ใช้บริการถึง 2 พันล้านคน Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนายพฤติกรรมต่างๆ ของผู้ใช้บริการ
นับแต่ตั้งแต่ที่ Cambridge Analytica ได้ปิดตัวลง แต่เรื่องอื้อฉาวนี้ได้ทำให้มีการวิจารณ์ถกเถียงเกี่ยวกับโมเดลธุรกิจของบริษัทที่นำการใช้ microtargeting ในการโฆษณาทางการเมือง ผู้วิจารณ์ทางการเมืองได้ชี้แจงว่าทาง Facebook เองก็ได้ใช้โมเดลธุรกิจแบบ microtargeting เป็นทุนเดิมอยู่แล้ว จะต่างก็ตรงที่โมเดลธุรกิจของ Facebook มีขนาดใหญ่กว่าและมีพลังมากว่า ด้วยขนาดข้อมูลผู้ใช้บริการที่มีจำนวนมหาศาลถึง 2 พันล้านคนได้เอื้ออำนวยให้ Facebook สามารถทำโมเดลธุรกิจแบบ microtargeting นี้ได้ ยิ่งไปกว่านั้น Facebook ได้ใช้ข้อมูลมโหฬารเหล่านี้ในการฝึกระบบ Machine Learning เพื่อการทำนาย เช่น เมื่อผู้ใช้รายบุคคลกำลังจะเปลี่ยนไปใช้สินค้ายี่ห้ออื่นๆ และ Facebook เองยังเปิดให้บริการระบบอัฉริยะที่นำมาทำนายอุปนิสัยการจับจ่ายออนไลน์ของผู้ใช้นี้ให้แก่บริษัทอื่นๆ ที่ยอมจ่ายค่าบริการ นี่แทบจะไม่ต่างกันเลยระหว่างการใช้โมเดลธุรกิจเพื่อการโฆษณา และการโฆษณาทางการเมือง และทำให้ Twitter ได้ประกาศยับยั้งการโฆษณาทางการเมืองแล้ว และ Google เองก็หยุดการใช้ microtargeting ในการโฆษณาทางการเมืองอีกด้วย
จากสถิติ พบว่า 86% ของผู้ที่ใช้อินเตอร์เน็ตในภูมิภาคเอเชียตะวันออกเฉียงใต้มีบัญชี Facebook และทำให้เกิดความกังวลเกี่ยวกับการใช้ microtargeting ที่ส่งผลกระทบต่อผลการเลือกตั้งหลายๆแห่งภายในภูมิภาคนี้ จากรายงานฉบับหนึ่งซึ่งได้ติดตามประเด็นการบิดเบือนข้อมูลทางดิจิทัลในช่วงการเลือกตั้งกลางเทอมในฟิลิปปินส์ เมื่อปี 2562 ซึ่งได้ชี้แจงว่า Facebook Boosts (ซึ่งเป็นกลไกทางโฆษณาของ Facebook นั่นเอง) เป็นปัจจัยสำคัญต่อการรณรงค์เลือกตั้งในท้องถิ่น นอกจากนี้ กลไกทางโฆษณาลักษณะ Facebook Boosts นี้ยังได้ถูกนำมาใช้ประชาสัมพันธ์เนื้อหาในแง่ลบเพื่อการโจมตีคู่แข่งทางการเมืองจากฝ่ายตรงข้าม ในอินโดนีเชีย ผู้เชี่ยวชาญได้เตือนเกี่ยวกับการตั้งเป้าพฤติกรรมของผู้เลือกตั้ง และการนำยุทธศาสตร์ต่างๆ เกี่ยวกับการใช้ microtargeting เพื่อการหาประโยชน์จากข้อมูลส่วนตัวของผู้เลือกตั้งในอินโดนีเชีย และเพื่อส่งผลกระทบต่อผลการเลือกตั้งในช่วงระยะเวลาการเลือกตั้งทั่วไปในปี 2562
เนื้อหาที่สร้างโดย AI ยิ่งเติมเชื้อเพลิงให้กับแคมเปญที่สร้างข้อมูลบิดเบือน
ในยุคดิจิทัล ข่าวลือได้ถูกทำให้มีประสิทธิผลมากขึ้นกว่าแต่ก่อน ด้วยธรรมชาติของเครือข่ายในการติดต่อสื่อสาร ด้วยเหตุผลนี้ทำให้เกิดการบิดเบือนข้อมูลหรือข่าวปลอม (fake news) ได้กลายมาเป็นปัญหาใหญ่ทั่วโลก รวมทั้งในภูมิภาคเอเชียตะวันออกเฉียงใต้เองด้วย ตัวอย่างที่เศร้าใจที่สุด เห็นได้จากการผลกระทบที่ทำให้เกิดการฆ่าล้างเผ่าพันธุ์ของชาวโรฮิงยาในเมียนมา ซึ่งมีรายงานว่าปัญหานี้เกิดมาจากการกระพือข้อมูลที่บิดเบือนและคำพูดที่สร้างความเกลียดชัง (hate speech) บนโซเซียลมีเดีย
ยิ่งไปกว่านั้น ธุรกิจแห่งการสร้างข้อมูลที่บิดเบือนยังได้งอกงามภายในภูมิภาคนี้ เช่น ในอินโดนีเชีย แหล่งผลิตข่าวปลอมหลายแห่งถูกใช้ปั่นเนื้อหาออกมาเป็นจำนวนมาก โดยตั้งเป้าโจมตีคู่แข่งทางการเมืองฝั่งตรงข้าม และเพื่อสนับสนุนบริการให้กับลูกค้าของแหล่งผลิตข่าวปลอมนั้นๆ อย่างเช่น ในฟิลิปปินส์ บริษัทประชาสัมพันธ์หลายแห่ง ได้ปลูกฝังค่านิยมในชุมชนออนไลน์พร้อมทั้งได้ใส่ข้อความที่บิดเบือนและข้อความที่เกี่ยวกับการเมือง โดยที่บริษัทเหล่านี้ได้รับการช่วยเหลือจากกลุ่มคนที่มีผู้ติดตามออนไลน์จำนวนมาก (influencers) ในกลุ่มที่มีลักษณะมีความเชี่ยวชาญเรื่องใดเรื่องหนึ่งเป็นพิเศษ ทั้งแบบเป็น micro และ nano เมื่อผู้ที่เกี่ยวข้องกับธุรกิจที่ดำเนินงานแบบไร้จรรยาบรรณเหล่านี้ได้สร้างโครงสร้างเพื่อการผลิตข้อมูลที่บิดเบือนและกอบโกยกำไร ทำให้การใช้ AI ในธุรกิจประเภทนี้ยิ่งจะสร้างข้อมูลที่บิดเบือนได้ง่ายและซับซ้อนมากยิ่งขึ้น
อีกหนึ่งเทคโนโลยีที่น่ากลัวคือสิ่งที่เรียกว่า deepfake โดยมีการสร้างเนื้อหาวิดีโอด้วยระบบ AI หรือรู้จักในว่า “synthetic media” ซึ่งเป็นสื่อแบบผสมผสานรวมทั้งการตัดต่อไฟล์วิดีโอหรือไฟล์เสียงเพื่อทำให้ดูและฟังดูเหมือนราวกับว่ามาจากแหล่งข้อมูลที่แท้จริง เทคโนโลยี deepfake ได้สร้างความจริงในช่วงเวลาหนึ่งที่ยังไม่มีใครสามารถแยกแยะได้ว่านี่ไม่ใช่แหล่งข้อมูลจริง ซึ่งบางทีกว่าจะมีคนรู้ว่าเป็นข้อมูลปลอมก็เป็นผ่านไปเป็นเดือน และด้วยต้นทุนที่ราคาถูกในการผลิตยิ่งทำให้มือใหม่เกิดขึ้นได้ง่ายในการสร้าง deepfake ซึ่งในตอนนี้ได้มีคนนำเทคนิคนี้มาใช้ผลิตคลิปวิดีโออนาจารของเหล่าคนดัง และมีความเป็นไปได้หลายแบบที่ deepfake จะถูกนำมาใช้ในการสร้างข้อมูลที่บิดเบือนภายในภูมิภาคนี้ อย่างน้อยมีหนึ่งในตัวอย่างคือ การที่นักการเมืองในประเทศมาเลเซียผู้หนึ่งอ้างว่า ได้มีคลิปวิดีโอ sex ของเขาถูกผลิตโดย deepfake เพื่อการโจมตีทางการเมือง
คลิปวิดีโอข้างต้นได้อธิบายให้เห็นว่าทำไมเทคโนโลยี deepfake จึงเป็นเรื่องที่น่ากังวลและทำไมพวกเราควรต้องระมัดระวังในเรื่องนี้ องค์กร WITNESS ได้เก็บรวบรวมแหล่งข้อมูลที่น่าสนใจสำหรับผู้ที่สนใจประเด็นเกี่ยวการสร้างวิดีโอแบบ deepfake
อีกกรณีคือที่ AI สามารถทำอะไรได้อีกบ้างในการผลิตเนื้อหาที่สมจริงออกมา ในบทความนี้ New York Times ได้เล่าถึงการคลิกเพียงปุ่มเดียว ก็สามารถผลิตคอมเมนต์ทางการเมืองหรือข้อมูลใดๆที่บิดเบือนออกมาได้ อย่างที่พอจะเห็นได้ว่ามีการลงทุนในการสร้างกองกำลังไซเบอร์เพื่อรุมโจมตีความคิดเห็นของฝ่ายตรงข้ามและหากใช้ machines มาใช้ทดแทนคนจริงๆ เพื่อการผลิตเนื้อหาที่สมจริงออกมาให้ดูเหมือนราวกับว่าเป็นมนุษย์เองที่เขียนข้อความเหล่านั้น ในรายงานอีกฉบับหนึ่งยังได้เตือนถึงความน่ากลัวของการทำข่าวปลอมที่ผลิตโดย AI มาอีกด้วย และระบบนั้นเรียกว่า GROVER ที่สามารถผลิตบทความปลอมที่เขียนขึ้นมาจากพาดหัวข่าวชิ้นเดียวเท่านั้น ทั้งยังสามารถเลียนแบบข่าวต่างๆที่รายงานโดยสำนักงานข่าวชั้นนำอย่าง The Washington Post หรือ The New York Times อีกด้วย
ในยุคที่เรียกว่า “ยุคหลังความจริง” หรือ “post-truth” นั้นยังต้องเผชิญกับอีกหลากหลายความท้าทาย คุณสามารถเช็ครูปถ่ายของใบหน้าของบุคคลต่างๆที่ผลิตโดยคอมพิวเตอร์แล้วอัพโหลดไปบนเว็บไซต์ดังต่อไปนี้ ThisPersonDoesNotExist.com หรือ WhichFaceIsReal.com ลองดูถึงความสมจริงของรูปเหล่านี้ เว็บไซต์เหล่านี้เองยังช่วยผลิตรูปภาพนั้นๆได้อย่างง่ายดายเพื่อนำไปใช้ในโปรไฟล์ปลอมบนโซเชียลมีเดีย
บทสรุป
ดังที่บทความนี้ได้กล่าวไปว่าความสามารถของ AI ได้นำมาใช้ในฐานะที่เปรียบเสมือนอาวุธ เพื่อบรรลุวัตถุจุดประสงค์ที่ขัดกับสิทธิพลเมืองและสิทธิทางการเมืองได้ ขณะที่ฝั่งภาคประชาสังคมในภูมิภาคนี้ยังคงต้องคอยจับตามองเพื่อติดตามเทรนด์ของเทคโนโลยีและแอปพลิเคชันใหม่ๆของ AI เพื่อจะไม่ให้ผู้เล่นอื่นนำไปใช้ในทางผิดแบบที่เราไม่ทันสังเกตเห็น เพราะด้วยประสิทธิภาพของเทคโนโลยี Machine Learning และ AI ที่เดินหน้าพัฒนาอย่างต่อเนื่อง ภาคประชาสังคมและนักปกป้องสิทธิมนุษยชนจำเป็นต้องเข้าไปมีส่วนร่วมเพื่อออกแบบระบอบการกำกับดูแลของ AI และผลักดันให้บริษัทเทคโนโลยีทั้งหลายต้องมีความรับผิดชอบต่อการพัฒนาเทคโนโลยีของตน เพื่อมุ่งให้เป็นอาวุธในแบบที่ช่วยปกป้องและส่งเสริมสิทธิมนุษยชนทั่วโลกได้
เกี่ยวกับผู้เขียน
Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ
คุณสามารถอ่าน บทความแรก และบทความที่สองในซีรีย์เดียวกันนี้ที่เกี่ยวกับผลกระทบสิทธิมนุษยชนที่มาจากปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในบริบทของเอเชียตะวันออกเฉียงใต้