กฎหมายและจริยธรรมของปัญญาประดิษฐ์

เราอาจจะเคยเชื่อว่าจริยธรรมเป็นเรื่องของมนุษย์เท่านั้น เนื่องจากมนุษย์เป็นศูนย์กลางของสรรพสิ่ง แต่โลกในอนาคตกำลังเปลี่ยนไปเมื่อปัญหาจริยธรรมไม่ได้ถูกจำกัดเฉพาะมนุษย์เท่านั้น


Cap & Corp Forum

เราอาจจะเคยเชื่อว่าจริยธรรมเป็นเรื่องของมนุษย์เท่านั้น เนื่องจากมนุษย์เป็นศูนย์กลางของสรรพสิ่ง แต่โลกในอนาคตกำลังเปลี่ยนไปเมื่อปัญหาจริยธรรมไม่ได้ถูกจำกัดเฉพาะมนุษย์เท่านั้น เราอาจไม่เคยกล่าวถึงจริยธรรมสำหรับสิ่งมีชีวิตอื่น ๆ เลย เนื่องจากสิ่งมีชีวิตที่มนุษย์คุ้นเคยไม่ว่าจะเป็นสัตว์เลี้ยง หรือสัตว์ป่าต่างไม่มีองค์ประกอบของความสามารถในการคิดหรือการตัดสินใจในระดับเดียวกันกับมนุษย์ หรือไม่มีการกระทำใด ๆ ที่อาจส่งผลต่อสวัสดิภาพของมนุษย์โดยตรง แต่ในอนาคต “จริยธรรมของปัญญาประดิษฐ์” จะเป็นเรื่องที่ใกล้ตัวเรามากขึ้น และจะเป็นจริงตามพัฒนาการของเทคโนโลยี

เมื่อกล่าวถึงจริยธรรมของปัญญาประดิษฐ์ ผู้เขียนหมายถึง Applied Ethics หรือจริยธรรมในเชิงประยุกต์ (จริยศาสตร์ประยุกต์) ซึ่งเป็นการนำแนวคิดทฤษฎีจริยศาสตร์ไปประยุกต์ใช้กับการศึกษาและตอบปัญหาที่เกี่ยวข้องกับความประพฤติในสถานการณ์จริง “จริยธรรมของปัญญาประดิษฐ์” จึงเป็นตัวอย่างของการประยุกต์ใช้จริยธรรมของปัญญาประดิษฐ์ โดยให้ความสำคัญกับประเด็นเชิงบรรทัดฐานที่เกิดขึ้นจากการออกแบบ การพัฒนา และการใช้งานปัญญาประดิษฐ์ เสมือนกับที่เรามีจริยธรรมสำหรับผู้ประกอบวิชาชีพต่าง ๆ อาทิ จริยธรรมของผู้ประกอบวิชาชีพแพทย์ที่กำหนดว่าแพทย์จะพึงปฏิบัติต่อผู้ป่วยอย่างไรในสถานการณ์ต่าง ๆ เป็นต้น

ในปัจจุบัน ความสามารถของปัญญาประดิษฐ์ในระบบคอมพิวเตอร์หรืออุปกรณ์อัจฉริยะต่าง ๆ ทำให้เครื่องจักรมีความสามารถในการทำความเข้าใจเรียนรู้องค์ความรู้ต่าง ๆ การให้เหตุผลและการแก้ปัญหาต่าง ๆ มากขึ้นตามลำดับ และผลที่ตามมาจากการที่ปัญญาประดิษฐ์สามารถคิดและตัดสินใจได้เสมือนมนุษย์มากขึ้นคือปัญหาของการตัดสินใจโดยมีอคติบางประการ ที่อาจเกิดจากเหตุผลต่าง ๆ เช่น เพศสภาพ อายุ เชื้อชาติ เผ่าพันธุ์ หรือศาสนา เป็นต้น ซึ่งอคติเหล่านั้นอาจไม่ได้เกิดจากความตั้งใจของผู้ออกแบบอัลกอริทึมหรือขั้นตอนทำงานและการประมวลของปัญญาประดิษฐ์ แต่เกิดจากการคัดเลือกข้อมูลและการประมวลผลข้อมูลขนาดใหญ่ตลอดเวลาของปัญญาประดิษฐ์นั้นเอง

ตัวอย่างของอคติในการประมวลผลของปัญญาประดิษฐ์ อาทิ ในการทดลองในสหรัฐอเมริกา พบว่าระบบปัญญาประดิษฐ์ COMPASS จะคาดการณ์ว่าคนผิวสีจะมีโอกาสกระทำผิดซ้ำมากกว่าคนผิวขาวเสมอ หรือเพศชายจะได้รับข้อเสนอด้านอาชีพและรายได้ที่สูงกว่าเพศหญิงจากการประมวลผลโดยระบบปัญญาประดิษฐ์ เป็นต้น ซึ่งอคติในการตัดสินใจและประมวลผลดังกล่าวเป็นผลจากอคติเรื่องสีผิว และเพศสภาพที่ถูกฝังในระบบของปัญญาประดิษฐ์ เป็นต้น

ปัญหาของอคติและความไม่เป็นกลางในการตัดสินใจของปัญญาประดิษฐ์ได้รับการตอกย้ำและยืนยันจากงานวิจัยจำนวนมาก หนึ่งในจำนวนนั้นได้แก่รายงานของ AI Now Institute (New York University) ซึ่งเป็นสถาบันวิจัยชั้นนำในด้านปัญญาประดิษฐ์ได้กล่าวสรุปไว้ในรายงานฉบับปี 2560 ว่า เทคโนโลยีปัญญาประดิษฐ์นั้นไม่มีความเป็นกลางแต่เทคโนโลยีดังกล่าวเป็นผลผลิตจากบริบทที่พวกมันถูกสร้างขึ้น ความสามารถในการคาดการณ์และประสิทธิภาพของปัญญาประดิษฐ์นี้ถูกจำกัดด้วยการตัดสินใจและคุณค่าที่มนุษย์และผู้ออกแบบพัฒนาและบำรุงรักษาระบบปัญญาประดิษฐ์กำหนดให้ ผู้ออกแบบพัฒนาเหล่านี้จะสร้างระบบดังกล่าวภายใต้ความเข้าใจทัศนคติและอคติของพวกเขาและอคติจำนวนมากที่ฝังอยู่ในระบบปัญญาประดิษฐ์นั้นเป็นผลิตผลจากประวัติศาสตร์ที่ซับซ้อนในด้านความหลากหลายและความเท่าเทียมกันของแต่ละสังคม

ในปี 2560 เยอรมนีเป็นประเทศแรก ๆ ที่พยายามกำหนดกรอบจริยธรรมของการพัฒนาระบบอัจฉริยะสำหรับรถยนต์โดยคณะกรรมการจริยธรรมซึ่งแต่งตั้งโดย Federal Minister of Transport and Digital Infrastructure ได้กำหนดหลักเกณฑ์ทางจริยธรรมสำหรับรถยนต์อัจฉริยะไร้คนขับไว้ 20 ข้อมีหลักการสำคัญหลายประการ อาทิ ในกรณีของอุบัติเหตุหรือสถานการณ์ที่ไม่อาจป้องกันได้ให้เลือกความเสียหายต่อทรัพย์สินก่อนที่จะก่อให้เกิดความเสียหายต่อความปลอดภัยของบุคคลหรือในสถานการณ์อันตรายการปกป้องชีวิตมนุษย์ต้องมีความสำคัญที่สุดหรือในกรณีที่เกิดเหตุการณ์ไม่อาจหลีกเลี่ยงได้ต้องไม่มีการเลือกปฏิบัติเพราะความแตกต่างระหว่างบุคคลตามลักษณะส่วนบุคคลเช่นอายุเพศสภาพหรือสีผิวเป็นต้น

ในประเทศสหรัฐอเมริกา เมื่อวันที่ 10 เมษายน 2562 วุฒิสมาชิก Cory Booker และ Ron Wyden จากพรรคเดโมแครตได้เสนอร่างกฎหมาย Algorithmic Accountability Act of 2019 เพื่อให้รัฐสภาสหรัฐพิจารณา โดยร่างกฎหมายดังกล่าวตราขึ้นเพื่อให้เป็นกฎหมายของรัฐบาลกลางในการกำกับและควบคุมระบบการทำงานของปัญญาประดิษฐ์ ซึ่งร่างกฎหมายดังกล่าวสะท้อนให้เห็นถึงความกังวลที่เพิ่มขึ้นและของความชอบด้วยกฎหมายและจริยธรรมของระบบปัญญาประดิษฐ์ในสังคมอเมริกัน

หลักการสำคัญของ Algorithmic Accountability Act of 2019 คือการกำหนดให้บริษัทที่มีการใช้ระบบปัญญาประดิษฐ์ในการประมวลผลข้อมูลส่วนบุคคลตามเงื่อนไขที่กฎหมายกำหนดต้องจัดทำ “Data Protection Impact Assessment” หรือรายงานผลกระทบด้านการคุ้มครองข้อมูลส่วนบุคคลเพื่อตรวจสอบว่าระบบประมวลผลอัตโนมัติด้วยปัญญาประดิษฐ์มีอคติหรือการเลือกปฏิบัติหรือไม่ และมีหน้าที่ต้องแก้ไขการเลือกปฏิบัติดังกล่าว ทั้งนี้เพื่อให้ระบบปัญญาประดิษฐ์มีความรับผิดชอบต่อบุคคลที่เกี่ยวข้องมากขึ้น

สหภาพยุโรปเล็งเห็นปัญหาของอคติและข้อกังวลของการเลือกปฏิบัติโดยไม่เป็นธรรมอันเนื่องมาจากการประมวลผลของปัญญาประดิษฐ์มาเป็นระยะเวลานาน ในกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือ GDPR มาตรา 22 จึงได้กำหนดเงื่อนไขของการประมวลผลโดยใช้ระบบอัตโนมัติไว้เป็นหลักการไว้ว่า เจ้าของข้อมูลส่วนบุคคลมีสิทธิที่จะไม่ถูกตัดสินใจโดยอาศัยการประมวลผลอัตโนมัติเพียงอย่างเดียวซึ่งก่อให้เกิดผลทางกฎหมายที่เกี่ยวข้องเจ้าของข้อมูลส่วนบุคคลดังกล่าว (ต้องให้มีบุคคลพิจารณาข้อมูลด้วย) แต่ GDPR ไม่ได้กำหนดข้อห้ามหรือมาตรการเรื่องการเลือกปฏิบัติไว้โดยตรง แต่อย่างไรก็ตาม สิทธิที่จะได้รับการปฏิบัติโดยเท่าเทียมกันถือว่าเป็นสิทธิขั้นพื้นฐานของพลเมืองสหภาพยุโรปที่กฎหมายจัดตั้งสหภาพให้ความคุ้มครองอยู่แล้ว

ทั้งร่างกฎหมาย Algorithmic Accountability Act of 2019 ของสหรัฐอเมริกาและ GDPR ของสหภาพยุโรป เป็นเพียงมิติหนึ่งของกฎหมายที่พยายามแก้ปัญหาจริยธรรมของปัญญาประดิษฐ์ที่อาจเกิดจากการเลือกปฏิบัติหรืออคติเท่านั้น แต่ก็ยังไม่สามารถแก้ไขปัญหาทางจริยธรรมของปัญญาประดิษฐ์หรือกำหนดกรอบการพัฒนาได้ทั้งระบบ กรอบการพัฒนาทางเทคโนโลยีและกฎหมายที่หลาย ๆ ประเทศกำลังพัฒนาเพื่อสร้างมาตรฐานทางจริยธรรมของปัญญาประดิษฐ์ที่ได้รับการยอบรับอย่างแพร่หลาย คือ หลักการที่เรียกว่า “Explainable AI” หรือ XAI เพื่อใช้ในการเปิดกล่องดำการประมวลผลของระบบปัญญาประดิษฐ์โดยการสร้างกระบวนการประมวลผลที่โปร่งใสและสามารถตรวจสอบย้อนกลับโดยมนุษย์ได้เพื่อให้มนุษย์สามารถทำความเข้าใจผลลัพธ์ของการแก้ปัญหาโดยปัญญาประดิษฐ์นั้น ๆ ได้อย่างแท้จริง

ภาพสะท้อนของ Explainable AI คือการที่มนุษย์พยายามดึงตนเองกลับมาเป็นศูนย์กลางอีกครั้ง (Human-centric) เพื่อที่การออกแบบใด ๆ ต้องไม่ทำให้ปัญญาประดิษฐ์นั้นสามารถวิวัฒน์ตนเองไปเกินกว่าความเข้าใจของมนุษย์ได้ ซึ่งอาจนำมาซึ่งความไม่เชื่อมั่นต่อความคงอยู่ของมนุษยชาติ

ศุภวัชร์ มาลานนท์

คณะนิติศาสตร์ มหาวิทยาลัยสงขลานครินทร์

Fulbright Hubert H. Humphrey Fellowship

American University Washington College of Law

Back to top button