×

ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กับข้อกังวลด้านสิทธิมนุษยชนในสังคมเอเชียตะวันออกเฉียงใต้: ภาพรวม

This post is also available in: English

โพสต์นี้เผยแพร่ครั้งแรกเมื่อวันที่ 24 ธันวาคม 2019 ใน Coconet.social.

“Inteligencia Artificial: ECI 33 (UBA)” by Juan Pablo Dellacha is licensed under CC BY-NC-ND 4.0

แปลไทยโดย ธีรดา ณ จัตุรัส

แม้เราจะเห็นคำว่าปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ถูกนำมาใช้อย่างแพร่หลายไปทุกหนทุกแห่งในชีวิตประจำวัน รวมถึงการสื่อสารของเราในแต่ละวัน แต่ความเข้าใจเกี่ยวกับ AI ยังถือว่ามีอยู่น้อยมากในกลุ่มภาคประชาสังคมในภูมิภาคเอเชียตะวันออกเฉียงใต้ เช่นคำถามที่ว่า 1) AI คืออะไร 2) แล้วมีการนำ AI ไปประยุกต์ใช้อะไรบ้างในปัจจุบันโดยเฉพาะในภูมิภาคนี้ 3) รวมไปถึงอะไรคือความเชื่อมโยงระหว่างการเกิดขึ้นของเทคโนโลยีใหม่อย่าง AI กับปัญหาการละเมิดสิทธิมนุษยชน 4) และยุทธศาสตร์การทำงานที่จะช่วยบรรเทาปัญหาการละเมิดสิทธิมนุษยชนจะเป็นอย่างไร

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับผลกระทบด้านสิทธิมนุษยชนที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยมีจุดประสงค์เพื่อการสร้างความตระหนักรู้และกระตุ้นการมีส่วนร่วมของภาคประชาสังคมที่ทำงานร่วมกับชุมชนชายขอบ ทั้งในการรณรงค์เรื่องสิทธิต่างๆ และการแก้ไขปัญหาที่เกี่ยวกับการพัฒนาทั้งในมิติผลกระทบด้านสาธารณสุข ความยากจน และสิ่งแวดล้อม

AI คืออะไร

คำว่า Artificial Intelligence (AI) เป็นศัพท์ที่มีความหมายกว้างและตีความได้หลายแบบ อันที่จริงบทความทางวิชาการที่เขียนเกี่ยวกับ AI ส่วนใหญ่เริ่มต้นด้วยการอธิบายว่า ในปัจจุบันยังไม่มีคำนิยามที่ยอมรับกันอย่างเป็นสากลว่า AI หมายถึงอะไร

ถ้าจะพูดถึง AI อย่างกว้างๆ อาจหมายถึง “ศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และกำหนดแนวทางการการดำเนินการในช่วงระยะเวลาหนึ่งเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายที่กำหนดไว้” (World Wide Web Foundation, 2017).

ในทางปฏิบัติแล้ว การเรียนรู้ของเครื่องจักร (Machine Learning หรือ ML) เป็นหนึ่งในศาสตร์ของการศึกษา AI ซึ่งมีการนำมาประยุกต์ใช้อย่างแพร่หลาย

AI คือศาสตร์ของการศึกษาเกี่ยวกับอุปกรณ์ดิจิทัลต่างๆ ที่พัฒนาขึ้นมาเพื่อให้มีความสามารถในการเรียนรู้และทำความเข้าใจสภาพแวดล้อมที่อยู่โดยรอบ และสามารถกำหนดแนวทางในการแก้ไขปัญหาที่ต้องการ

Internet Society 2017 ได้อธิบายเกี่ยวกับ Machine Learning ไว้ว่า แทนที่จะใช้วิธีการให้เครื่องคอมพิวเตอร์แก้ไขปัญหาแบบทีละขั้นตอน นักพัฒนาโปรแกรมที่เป็นมนุษย์ได้เลือกใช้วิธีป้อนรูปแบบชุดคำสั่งและเงื่อนไขต่างๆ ให้แก่คอมพิวเตอร์ให้ได้เรียนรู้ จากข้อมูลที่ป้อนให้นั้น คอมพิวเตอร์จะเริ่มฝึกสร้างกฎใหม่ๆเอง เพื่อเสนอข้อมูลและบริการต่างๆ

ส่วนสิ่งที่เรียกว่า อัลกอริทึม (algorithm) คือ “วิธีการคิดแบบเป็นลำดับขั้นตอนของคำสั่งเพื่อให้คอมพิวเตอร์ได้เรียนรู้ และใช้ในการแก้ไขปัญหาต่างๆ” จึงทำให้เครื่องจักรหรือคอมพิวเตอร์ สามารถแก้ปัญหาที่สลับซับซ้อนในแบบที่วิธีการแบบปกติอาจไม่สามารถแก้ไขปัญหานั้นได้ง่ายๆ

ผลกระทบด้านสิทธิมนุษยชนของ AI

นักวิชาการจากศูนย์ Berkman Klein Center for Internet & Society ของมหาวิทยาลัย Harvard ได้ชี้ว่า Machine Learning มีทั้งข้อดีและข้อเสียที่มีผลกระทบด้านสิทธิมนุษยชน ซึ่งมีอย่างน้อยมี 3 ปัจจัยหลักด้วยกัน ได้แก่

  1. คุณภาพของข้อมูล: นี่เป็นปัญหาที่รู้จักกันดีในคำกล่าวที่ว่า “garbage in, garbage out” (ถ้าใส่ขยะเข้าไป ผลลัพธ์ก็ได้จะขยะออกมา) เพราะถึงแม้จะมีอัลกอริทึม (algorithm) ที่ถูกเขียนมาอย่างดีที่สุดก็อาจจะให้ผลลัพธ์ที่ผิดเพี้ยนถ้าหากข้อมูลตั้งต้นที่ป้อนเข้าเพื่อฝึก Machine Learning มีความลำเอียงหรืออคติอยู่ก่อนแล้ว
  2. การออกแบบระบบ: เมื่อมนุษย์คือผู้ออกแบบระบบ AI ให้เรียนรู้สิ่งต่างๆ ซึ่งก็อาจจะป้อนค่านิยมของตนเองลงไปในการออกแบบระบบด้วย เช่น การให้ความสำคัญตัวแปรบางตัวมากกว่าตัวแปรตัวอื่นๆ
  3. การปฏิสัมพันธ์ที่ซับซ้อน: ระบบ AI อาจจะโต้ตอบต่อสภาพแวดล้อมของตนเองรับรู้ในแบบที่นำไปสู่ผลลัพธ์ที่คาดการณ์ได้ยาก

งานวิจัยเดียวกันนี้ยังเสนออีก 6 ตัวอย่างกรณีศึกษาของการนำ AI มาใช้ในการตัดสินใจในประเด็นทางสังคมต่างๆ นับตั้งแต่กระบวนการยุติธรรมไปจนถึงการวินิจฉัยโรค ผลกระทบเหล่านี้ถือว่าอยู่ภายใต้กรอบของสิทธิมนุษยชน พร้อมยังได้นำเสนอตัวอย่างที่เป็นรูปธรรมเกี่ยวกับสิทธิบางประการที่ได้รับผลกระทบจากการใช้ AI

ยังคงต้องกล่าวว่า ความมีประสิทธิภาพของ AI นั้นขึ้นอยู่กับที่ความแตกต่างของฟังก์ชันต่างๆ ในบางกรณีนั้นก็ดูจะพูดเกินความเป็นจริงของผลลัพธ์เชิงบวกจากการใช้ AI

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

ในการนำเสนองานวิจัยที่ชื่อว่า “How to Recognise AI Snake Oil“ของศาสตราจารย์ Arvind Narayanan จากมหาวิทยาลัย Princeton ได้ระบุว่าขณะที่ AI ได้ถูกนำมาประยุกต์ใช้อย่างสำเร็จในสาขาวิชาด้านการรับรู้ (เช่น การระบุเนื้อหาข้อความ ระบบจดจำใบหน้า การวินิจฉัยโรคผ่านภาพสแกน) และใช้ในด้านการคาดการณ์ทางสังคมต่างๆ (เช่น ความเป็นไปได้ในการก่ออาชญากรรม หรือ ประสิทธิภาพในการทำงาน) นั่นยังถือว่า “มีความน่าสงสัย”

นี่เป็นสิ่งที่ต้องตระหนักว่า ความไม่ถูกต้องในคาดการณ์ผลโดยใช้ AI อาจส่งผลร้ายอย่างยิ่งต่อชีวิตและศักดิ์ศรีความเป็นมนุษย์

“kecerdasan” (intelligence) is licensed under CC0 1.0

AI ในบริบทของเอเชียอุษาคเนย์

ดูเหมือนว่า แทบจะไม่มีงานวิจัยและการศึกษามากนักที่เกี่ยวกับประเด็นสิทธิมนุษยชนและผลกระทบจากการใช้ AI ในบริบทของภาคเอเชียตะวันออกเฉียงใต้ ขณะที่การถกเถียงเกี่ยวประเด็นเรื่องจริยธรรมและหลักการในการใช้ AI ส่วนใหญ่เกิดขึ้นในกลุ่มประเทศที่พัฒนาแล้วและประเทศจีน เพราะถือเป็นต้นกำเนิดแห่งเทคโนโลยีใหม่ๆ

จากการศึกษาเรื่อง Principled Artificial Intelligence ของมหาวิทยาลัย Harvard ได้แสดงข้อมูลภาพที่รวบรวมหลักจริยธรรมของการใช้ AI ทั้งหมด 32 หลักหรือข้อแนะนำสำหรับจริยธรรมในการใช้ AI ซึ่งสะท้อนมุมมองความคิดเห็นจากทั้งฝั่งรัฐบาล บริษัทเอกชน กลุ่มรณรงค์ทางสังคม และผู้ที่เกี่ยวข้องต่างๆ ทว่าในจำนวนเสียงสะท้อนเหล่านั้นไม่มีตัวแทนจากภูมิภาคเอเชียตะวันออกเฉียงใต้เลย สะท้อนให้เห็นหนึ่งในความท้าทายของการศึกษาเรื่องการใช้ AI ในภูมิภาคนี้ซึ่งอาจจะเผชิญปัญหาที่แตกต่างจากบริบทในภูมิภาคอื่นของโลก ต่อไปนี้เป็นข้อพิจารณาบางประการที่เกี่ยวข้องกับเรื่องนี้

เผด็จการอำนาจนิยมแบบดิจิทัล ผ่านเทคโนโลยี AI:

รายงานล่าสุดจากกลุ่ม Civicus Monitor แสดงให้เห็นว่า ไม่มีประเทศใดในทั้งหมด 11 ประเทศในภูมิภาคนี้ได้รับการจัดลำดับให้อยู่ในสถานะที่สิทธิพลเมืองสูงกว่าสถานะ “ลิดรอนสิทธิเสรีภาพ” (obstructed) ขณะที่รายงาน The Freedom on the Net report ประจำปี 2561 ได้ประเมิน 8 ประเทศในภูมิภาคนี้ว่า ไม่มีประเทศใดอยู่ในสถานะ “มีเสรีภาพ” ทางอินเตอร์เน็ต รายงานเหล่านี้ชี้ให้เห็นว่า ภาคประชาสังคมในภูมิภาคนี้ส่วนใหญ่ที่มีความระมัดระวังเกี่ยวกับการประยุกต์ใช้ AI ในลักษณะที่มาจำกัดสิทธิพลเมืองและทางการเมือง เช่น การสอดส่องติดตามทางดิจิทัล ดังนั้น ผลกระทบทางสิทธิมนุษยชนจากการประยุกต์ใช้ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี (ตามที่กล่าวมาข้างต้น) และครอบคลุมไปจนถึงกระบวนการที่ทำให้ AI กลายมาเป็นอาวุธที่มาทำลายเสรีภาพของประชาชน

ผลกระทบทางสิทธิมนุษยชนเกี่ยวกับ AI จึงมีมากไปกว่าปัญหาทางเทคโนโลยี

…การไม่รวมทุกคนเข้าไปในชุดข้อมูล ถือว่าเป็นข้อกังวลมากกว่าความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม

การขาดสัดส่วนชุดข้อมูลจากตัวแทนฝั่งเอเชีย:

ในที่ประชุมของ the Internet Governance Forum 2017 ในหัวข้อ “AI in Asia: What’s Similar, What’s Different?” ชี้ให้เห็นถึงการที่ไม่ได้รวมชุดข้อมูลของประเทศเอเชียบางประเทศ (กรณีตัวอย่าง เช่น อินเดียและมาเลเซีย) จึงมีความกังวลว่าการไม่ได้รวมข้อมูลจากกลุ่มประเทศเหล่านี้ ถือว่าเป็นข้อกังวลถึงความเป็นไปได้ในการใช้ข้อมูลในทางที่ไม่เป็นธรรม รวมไปถึงประเด็นเรื่องการไม่นับรวมชุดข้อมูลของประเทศเอเชียบางประเทศที่ขัดแย้งกับแนวทางในเรื่องการคุ้มครองข้อมูล และความเป็นส่วนตัวที่เป็นแนวทางจากโลกตะวันตก ซึ่งเรื่องการขาดข้อมูลที่มีคุณภาพจากทวีปเอเชียนี้ถือว่าเป็น “ความท้าทายที่สำคัญ” ต่อการริเริ่มการพัฒนาในด้าน Machine Learning ซึ่งมักถูกบังคับให้ป้อนข้อมูลที่มาจากประเทศฝั่งสหรัฐอเมริกา และสหราชอาณาจักร เพื่อการฝึก machines ต่างๆ ซึ่งนำไปสู่ปัญหาเรื่องความลำเอียงของข้อมูล และทำให้อาจจะนำมาใช้กับบริบทท้องถิ่นไม่ได้

ผลกระทบทางสังคมและเศรษฐกิจที่มาจาก AI:

จากรายงานชิ้นหนึ่งของ McKinsey เมื่อปี 2560 ซึ่งตั้งข้อสังเกตว่า AI มีศักยภาพที่จะทำงานได้ครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง (มีมูลค่าเทียบเท่ากับค่าจ้างงานจำนวน 900 พันล้านดอลลาร์สหรัฐ) ใน 4 ประเทศยักษ์ใหญ่ทางเศรษฐกิจของกลุ่มประเทศอาเซียน ได้แก่ อินโดนีเซีย (52%) มาเลเซีย (51%) ฟิลิปปินส์ (48%) และประเทศไทย (55%) ในปี 2560 World Wide Web Foundation ยังได้กล่าวถึงเงินลงทุนที่จะเป็นตัวกำหนดถึงสถานที่ในการผลิต AI ไม่ใช่แค่ต้นทุนค่าแรงงาน แต่การเปลี่ยนแปลงนี้จะส่งผลกระทบทางสังคมและเศรษฐกิจ โดยเฉพาะสัดส่วนการจ้างงานของผู้หญิงที่ทำงานอยู่ในด้านออฟฟิศและงานเสมียน

AI มีศักยภาพที่จะทำงานครึ่งหนึ่งของจำนวนงานทั้งหมดด้วยตัวเอง

การขาดความสามารถด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแล

การมีส่วนร่วมในกระบวนการกำกับดูแล AI:

สหรัฐอเมริกาและจีนถือเป็นผู้เล่นสำคัญของโลกในเรื่อง AI แม้ว่าอาจจะพอมีกิจกรรมที่เกี่ยวกับ AI ในบางประเทศสมาชิกของกลุ่มอาเซียน(McKinsey Global Institute 2560) แต่การอยู่ห่างจากศูนย์กลางทางเทคโนโลยีทั้งทางภูมิศาสตร์และอำนาจทางการเมืองของประชาชนในภูมิภาคอุษาอาคเนย์ จึงทำให้เรามีสิทธิในการออกเสียงมีน้อยมากในการแสดงความคิดเห็นเกี่ยวกับการออกแบบและการกำกับดูแล AI รวมไปถึงเรื่องอำนาจในการควบคุมข้อมูลส่วนตัว และร่องรอยทางดิจิทัลเมื่อยามที่เราใช้แอปพลิเคชันต่างๆที่ถูกพัฒนามาจากฝั่งสหรัฐอเมริกาและจีน การขาดแคลนความสามารถทางด้านเทคนิคทางคอมพิวเตอร์เป็นอีกหนึ่งปัจจัยสำคัญที่ขัดขวางการมีส่วนร่วมในการกำกับดูแลนี้ ตามที่ระบุในงานวิจัยของผู้เขียนเกี่ยวกับความเคลื่อนไหวทางด้านสิทธิมนุษยชนทางด้านดิจิทัลในภาคเอเชียตะวันออกเฉียงใต้ เมื่อปี 2562

ประเด็นข้างต้นมิได้จบเพียงเท่านี้ แต่เป็นเพียงการเริ่มในการเก็บรวบรวมข้อกังวลที่เกี่ยวกับ AI และ Machine Learning ในภูมิภาคนี้ จะเห็นได้ว่า AI จะเปลี่ยนสิ่งต่างๆในภูมิภาคนี้อย่างอย่างรวดเร็วในอนาคตอันใกล้ และภาคประชาสังคมจำเป็นต้องก้าวให้ทันกับความก้าวหน้าทางเทคโนโลยีให้ท่วงที เพื่อที่จะเข้าใจในโอกาสและความเสี่ยงที่มาพร้อมกับเทคโนโลยีใหม่ๆ ที่ส่งผลต่อกับงานที่เราทำอยู่ – ไม่ทางใดก็ทางหนึ่ง

“идея” (idea) is licensed under CC0 1.0

บทความนี้เป็นหนึ่งในชุดบทความที่เกี่ยวกับสถานการณ์ของ AI ที่มีผลกระทบต่อสิทธิมนุษยชนในภูมิภาคเอเชียตะวันออกเฉียงใต้ โดยบทความต่อไปผู้เขียนจะเจาะลึกถึงประเด็นเชิงนโยบาย การประยุกต์ใช้งาน และผลกระทบที่เกี่ยวกับ AI ที่เกิดขึ้นในภูมิภาคนี้ โดยเป็นส่วนหนึ่งของโครงการวิจัยนี้ที่เรากำลังรวบรวมรายชื่อหนังสือและบทความ และผู้เขียนจะพยายามปรับปรุงหรือเพิ่มรายชื่ออย่างสม่ำเสมอ เพื่อการเผยแพร่ทางสาธารณะต่อไป ซึ่งผู้ที่สนใจสามารถค้นหาเพื่ออ่านเพิ่มเติมได้

เกี่ยวกับผู้เขี

Dr. Jun-E Tan เป็นนักวิจัยอิสระ อาศัยอยู่ในเมืองกัวลาลัมเปอร์ ประเทศมาเลเซีย งานวิจัยและการสนับสนุนของ Jun-E นั้นเกี่ยวกับประเด็นการสื่อสารทางดิจิทัล สิทธิมนุษยชน และการพัฒนาที่ยั่งยืน บทความในปีวิจัยล่าสุดของ Jun-E มีชื่อว่า “สิทธิมนุษยชนทางดิจิทัลในภูมิภาคเอเชียอาคเนย์: กรอบแนวคิดและการสร้างขบวนการเคลื่อนไหว” (Digital Rights in Southeast Asia: Conceptual Framework and Movement Building) ได้เผยแพร่ในหนังสือ open access (สามารถ download เพื่ออ่านได้ฟรี) ที่มีชื่อว่า “การสำรวจความเกี่ยวเนื่องระหว่างเทคโนโลยีต่างๆและสิทธิมนุษยชน: โอกาสและความท้าทายที่หลากหลายในเอเชียอาคเนย์” (Exploring the Nexus Between Technologies and Human Rights: Opportunities and Challenges in Southeast Asia) จัดพิมพ์โดยสำนักพิมพ์ SHAPE-SEA เมื่อเดือนธันวาคม 2562 นอกจากนี้ Jun-E ยังได้เขียนบทความลงในบล็อกของตนเองอยู่เป็นประจำ

Leave a Comment

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น

Please type in the numbers you see. *

Subscribe to the EngageMedia newsletter!

Twice a month, get updates on EngageMedia activities and opportunities.