AI และกรณีเงินเยียวยา

การประมวลผลข้อมูลส่วนบุคคลโดยใช้เพียงเครื่องจักร และนำไปสู่การตัดสิทธิหรือเป็นโทษแก่บุคคล เป็นเรื่องที่ไม่สมควรอย่างยิ่ง


Cap & Corp Forum

ปัญหาการเยียวยาความเดือดร้อนให้แก่ผู้ได้รับผลกระทบจากสถานการณ์การแพร่ระบาดของโควิด-19 ที่รัฐบาลอ้างว่าได้นำ AI หรือระบบปัญญาประดิษฐ์เข้ามาใช้ในการคัดกรองเพื่อคัดแยกบุคคลที่มีสิทธิตามเงื่อนไขที่รัฐบาลกำหนดให้ได้รับการเยียวยาเป็นเงินจำนวน 5,000 บาทนั้น กลายเป็นประเด็นทางสังคมที่มีการกล่าวถึงอย่างกว้างขวางถึงประสิทธิภาพของระบบ AI ที่นำมาใช้ จนในที่สุดเหมือนจะมีการยอมรับออกมาว่าจริง ๆ แล้วไม่น่าจะเรียกว่า AI แต่เป็นเพียงระบบโปรแกรมคอมพิวเตอร์ธรรมดาที่ไปดึงข้อมูลมาจากฐานข้อมูลต่าง ๆ เมื่อฐานข้อมูลที่ใช้ไม่มีความถูกต้อง จึงทำให้การคัดกรองเกิดปัญหาและข้อผิดพลาดในที่สุด

ในทางทฤษฎีปัญญาประดิษฐ์อาจจำแนกได้เป็น narrow AI และ strong AI/AGI (artificial general intelligence) โดย AGI คือปัญญาประดิษฐ์ที่มีความสามารถในการคิดและวิเคราะห์ที่เหมือนมนุษย์หรือดีกว่ามนุษย์ ซึ่งเทคโนโลยีที่มีอยู่ทุกวันนี้ยังไปไม่ถึงและในระหว่างนักวิจัยด้าน AI เองก็ยังมีความเห็นไม่ลงรอยกันว่า AGI จะเกิดขึ้นได้ภายในศตวรรษนี้หรือไม่ ที่เราเห็นว่า AI เก่งหรือฉลาดกว่ามนุษย์นั้น แท้จริงเป็นความเก่ง ความสามารถเฉพาะทางตามที่ถูกออกแบบมาเท่านั้น แค่จะทำให้  AI สามารถเรียนรู้ภาษาของมนุษย์ จำแนกภาพถ่าย ฯลฯ ยังต้องใช้เวลานานมากกว่าที่เทคโนโลยีจะมาถึงวันนี้ได้ ดังนั้น การที่จะไปถึงจุดที่ AI สามารถคิดและวิเคราะห์ได้เองนั้นแทบจะยังมองไม่เห็นโอกาสในช่วงระยะเวลาอันใกล้ แต่ก็ประมาทไม่ได้เพราะด้วยเทคโนโลยี deep learning และ machine learning บวกกับความสามารถในการเข้าถึง big data จำนวนมาก ก็ทำให้ AI มีพัฒนาการที่เร็วมาก

แต่ในปัจจุบัน AI ที่ผู้บริโภคและภาคธุรกิจทั่วไปเข้าถึงและได้ใช้ประโยชน์จริง ๆ คือ narrow AI หรือปัญญาประดิษฐ์ที่มีความสามารถจำกัดเฉพาะอย่างเท่านั้น อาทิ รถยนต์ไร้คนขับ (AI ที่ทำได้เพียงการขับรถยนต์) เทคโนโลยีจดจำใบหน้า voice assistant อย่าง Google Assistant, Siri, Alexa หรือ chatbot เป็นต้น แต่ narrow AI พวกนี้จะให้ทำอย่างอื่นที่ไม่ได้ตั้งค่าระบบและการเรียนรู้มา narrow AI ก็จะทำไม่ได้แล้ว ตัวอย่างเช่น แอลฟาโกะ (AlphaGo) ที่สามารถเล่นโกะชนะมนุษย์ได้ แต่ให้เล่นหมากรุกก็ทำไม่ได้แล้วครับ

ความสามารถของ AI จึงขึ้นอยู่กับข้อมูลและระบบการเรียนรู้ ซึ่งนักวิทยาศาสตร์ นักคอมพิวเตอร์ วิศวกร ฯลฯ ต่างก็พยายามพัฒนาอย่างต่อเนื่อง แต่เทคโนโลยีก็เสมือนเหรียญสองด้านยิ่งเทคโนโลยีปัญญาประดิษฐ์ที่อาจนำมาซึ่งความเปลี่ยนแปลงต่อทุก ๆ สิ่งที่มนุษย์เคยเห็นและเคยเชื่อจึงอาจมีโอกาสสร้างคุณอนันต์และโทษมหันต์ต่อมนุษย์ได้ นักวิจัยจำนวนมากจึงให้ความสนใจและเห็นควรกำหนดกรอบการพัฒนาเทคโนโลยีร่วมกันเพื่อให้สามารถควบคุมและกำหนดทิศทางการพัฒนาปัญญาประดิษฐ์ไปในทิศทางที่ไม่ส่งผลเสียต่อมนุษย์โดยแนวคิดที่สำคัญได้แก่ Explainable AI (XAI) และ Human-centric AI กล่าวคือการทำงานของ AI ต้องสามารถอธิบายให้มนุษย์เข้าใจได้และสามารถตรวจสอบย้อนกลับได้โดยต้องไม่เหมือนกล่องดำที่มนุษย์ไม่รู้ไม่เห็นว่าเกิดอะไรขึ้นบ้างและต้องมีมนุษย์เป็นศูนย์กลางเพื่อมิให้ AI เป็นปฏิปักษ์กับมนุษย์

ในสหรัฐอเมริกาเมื่อวันที่ 10 เมษายน 2562 วุฒิสมาชิก Cory Booker และ Ron Wyden จากพรรคเดโมแครตได้เสนอร่างกฎหมาย Algorithmic Accountability Act of 2019 เพื่อให้รัฐสภาสหรัฐพิจารณาโดยร่างกฎหมายดังกล่าวตราขึ้นเพื่อให้เป็นกฎหมายของรัฐบาลกลางในการกำกับและควบคุมระบบการทำงานของปัญญาประดิษฐ์ ซึ่งร่างกฎหมายดังกล่าวสะท้อนให้เห็นถึงความกังวลที่เพิ่มขึ้นของความชอบด้วยกฎหมายและจริยธรรมของระบบปัญญาประดิษฐ์ในสังคมอเมริกัน

หลักการสำคัญของ Algorithmic Accountability Act of 2019 คือการกำหนดให้บริษัทที่มีการใช้ระบบปัญญาประดิษฐ์ในการประมวลผลข้อมูลส่วนบุคคลตามเงื่อนไขที่กฎหมายกำหนดต้องจัดทำ “Data Protection Impact Assessment” หรือรายงานผลกระทบด้านการคุ้มครองข้อมูลส่วนบุคคลเพื่อตรวจสอบว่าระบบประมวลผลอัตโนมัติด้วยปัญญาประดิษฐ์มีอคติหรือการเลือกปฏิบัติหรือไม่ และมีหน้าที่ต้องแก้ไขการเลือกปฏิบัติดังกล่าว ทั้งนี้เพื่อให้ระบบปัญญาประดิษฐ์มีความรับผิดชอบต่อบุคคลที่เกี่ยวข้องมากขึ้น

สหภาพยุโรปเล็งเห็นปัญหาของอคติและข้อกังวลของการเลือกปฏิบัติโดยไม่เป็นธรรมอันเนื่องมาจากการประมวลผลของปัญญาประดิษฐ์มาเป็นระยะเวลานานในกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือ GDPR มาตรา 22 จึงได้กำหนดเงื่อนไขของการประมวลผลโดยใช้ระบบอัตโนมัติไว้เป็นหลักการไว้ว่าเจ้าของข้อมูลส่วนบุคคลมีสิทธิที่จะไม่ถูกตัดสินใจโดยอาศัยการประมวลผลอัตโนมัติเพียงอย่างเดียวซึ่งก่อให้เกิดผลทางกฎหมายที่เกี่ยวข้องเจ้าของข้อมูลส่วนบุคคลดังกล่าว (ต้องให้มีบุคคลพิจารณาข้อมูลด้วย) แต่ GDPR ไม่ได้กำหนดข้อห้ามหรือมาตรการเรื่องการเลือกปฏิบัติไว้โดยตรง แต่อย่างไรก็ตามสิทธิที่จะได้รับการปฏิบัติโดยเท่าเทียมกันถือว่าเป็นสิทธิขั้นพื้นฐานของพลเมืองสหภาพยุโรปที่กฎหมายจัดตั้งสหภาพให้ความคุ้มครองอยู่แล้ว

ตรงจุดนี้ผู้เขียนจึงอยากชี้ให้เห็นถึงความสำคัญของการที่สิทธิของบุคคลจะต้องไม่ถูกกำหนดด้วยเครื่องจักร หุ่นยนต์ หรือระบบ AI ใด ๆ โดยปราศจากการตรวจสอบ ทบทวน โดยมนุษย์ ซึ่งเป็นหลักการสำคัญที่กำหนดไว้ใน GDPR และกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปที่แม้ประเทศไทยเราจะนำกฎหมายดังกล่าวมาเป็นต้นแบบในการตราพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคลพ.ศ. 2562 ก็ตาม แต่ก็มิได้นำหลักการเกี่ยวกับ profiling และ algorithm bias มาบัญญัติไว้ในกฎหมายไทยด้วย

ผู้เขียนเห็นว่า ยิ่งเมื่อเป็นการนำระบบ AI มาใช้ในการพิจารณาทางปกครองของเจ้าหน้าที่รัฐ การที่เจ้าหน้าที่รัฐมีคำสั่งทางปกครองที่กระทบกับสิทธิของบุคคลโดยที่ไม่มีการพิจารณาทบทวนโดยเจ้าหน้าที่อย่างแท้จริงจึงเป็นประเด็นที่ต้องพิจารณากันอย่างที่ถ้วน ทั้งในแง่ของการประมวลผลข้อมูลส่วนบุคคลที่ขัดกับหลักการที่อาจจะถือได้ว่าเป็นหลักการพื้นฐานอย่างหนึ่ง อีกทั้งยังอาจมีปัญหาความชอบด้วยกฎหมายว่าคำสั่งให้ได้รับการเยียวยาเป็น “คำสั่งทางปกครอง” หรือไม่ ในเมื่อคำสั่งนั้นไม่ได้ให้โอกาสเจ้าหน้าที่ของรัฐที่มีอำนาจตามกฎหมายในการพิจารณา มิพักต้องพิจารณาว่าในเบื้องต้นที่รัฐบาลประกาศว่าห้ามอุทธรณ์สิทธิในการได้รับเงินเยียวยาเด็ดขาด

ประเด็นสำคัญที่ผู้เขียนอยากฝากไว้คือ ตราบเท่าที่ระบบยังไม่สามารถคัดกรองข้อมูลและความถูกต้องของข้อมูลที่ใช้ในการประมวลผลและยังไม่สามารถออกแบบระบบที่สามารถแก้ปัญหาอคติจากการประมวลผลของ AI ที่เกิดจากข้อมูลนำเข้าและรูปแบบการเรียนรู้ของ AI เอง การประมวลผลข้อมูลส่วนบุคคลโดยใช้เพียงเครื่องจักรและนำไปสู่การตัดสิทธิหรือเป็นโทษแก่บุคคล เป็นเรื่องที่ไม่สมควรอย่างยิ่งครับ

ศุภวัชร์ มาลานนท์

คณะนิติศาสตร์ มหาวิทยาลัยสงขลานครินทร์

Fulbright Hubert H. Humphrey Fellowship

American University Washington College of Law

Back to top button