นโยบายกฎหมายสำหรับหุ่นยนต์อัจฉริยะ

ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์มีความก้าวหน้าไปอย่างรวดเร็วและเริ่มมีการใช้ปัญญาประดิษฐ์ในหุ่นยนต์มากขึ้น ส่งผลให้หุ่นยนต์มีความสามารถใกล้เคียงมนุษย์มากขึ้น


Cap & Corp Forum

ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์ (artificial intelligence, AI) มีความก้าวหน้าไปอย่างรวดเร็วและเริ่มมีการใช้ปัญญาประดิษฐ์ในหุ่นยนต์มากขึ้น ส่งผลให้หุ่นยนต์มีความสามารถใกล้เคียงมนุษย์มากขึ้นในด้านการคิด การตัดสินใจ และมีการพัฒนาด้านจิตวิทยาความรู้ความเข้าใจ (cognitive features) โดยปัจจุบันปัญญาประดิษฐ์จะสามารถประมวลผลและตัดสินใจได้ดีในรูปแบบงานที่เป็นลักษณะประจำ มีกฎ กติกาและแบบแผนชัดเจน เช่น การที่ปัญญาประดิษฐ์สามารถเอาชนะมนุษย์ในเกมหมากรุกต่าง ๆ  เป็นต้น ผู้เขียนเชื่อว่าในอนาคตเราจะได้มีโอกาสเห็น Humanoid หรือหุ่นยนต์ที่มีลักษณะคล้ายมนุษย์มากขึ้นในชีวิตประจำวัน

สหภาพยุโรปเริ่มคาดการณ์ว่าในอนาคตอันใกล้หุ่นยนต์จะถูกนำมาใช้ในฐานะของสินค้าอุปโภคบริโภคชนิดหนึ่งที่บุคคลทั่วไปสามารถซื้อและเป็นเจ้าของได้ และหุ่นยนต์เหล่านี้จะถูกนำมาใช้เพื่อเป็นผู้ช่วยมนุษย์ในด้านต่าง ๆ โดยเฉพาะในด้านการดูและการเป็นเพื่อนของมนุษย์ (care, companionship) ซึ่งการแทนที่มนุษย์ด้วยหุ่นยนต์เหล่านี้อาจส่งผลหลาย ๆ ประการต่อสภาพสังคมอัตลักษณ์และการดำรงอยู่ของมนุษย์  สหภาพยุโรปจึงได้เริ่มพัฒนากรอบนโยบายทางกฎหมายเพื่อใช้ในการส่งเสริมการพัฒนาเทคโนโลยีปัญญาประดิษฐ์และ “Smart Robots” ไปในทิศทางที่เหมาะสม ภายใต้กรอบนโยบายการกำกับดูแลที่ส่งเสริมการพัฒนานวัตกรรม

Civil Law Rules on Robotics และ Charter on Robotics เป็นกรอบนโยบายทางกฎหมายซึ่งผ่านความเห็นชอบจากรัฐสภาแห่งสหภาพยุโรปเมื่อวันที่ 16 กุมภาพันธ์ 2560 กรอบนโยบายฯ ดังกล่าวมีหลักการที่น่าสนใจหลายประการและเชื่อว่าด้วยขนาดทางเศรษฐกิจของสหภาพยุโรปและบทบาทในการเป็นผู้นำทางเทคโนโลยี จะทำให้กรอบนโยบายทางกฎหมายของสหภาพยุโรปดังกล่าวส่งผลอย่างมีนัยสำคัญต่อการพัฒนา Smart Robots โดยกรอบนโยบายฯ กำหนดหลักการสำหรับการพัฒนากฎหมายการวิจัยและพัฒนาด้านหุ่นยนต์อัจฉริยะไว้ดังนี้

1.ความหมายของ “Smart Robot” Civil Law Rules on Robotics กำหนดหลักการเพื่อให้คณะกรรมาธิการยุโรปนำไปกำหนดความหมายของ Smart Robot หรือหุ่นยนต์อัจฉริยะ โดยให้คำนึงถึงองค์ประกอบดังนี้ (1) มีกระบวนการที่เป็นอิสระจากการควบคุมของมนุษย์ เนื่องจากการใช้ระบบเซ็นเซอร์ และมีการแลกเปลี่ยนข้อมูลกับสภาวะแวดล้อมและมีการประมวลผลข้อมูลเหล่านั้น (2) สามารถเรียนรู้ด้วยตนเองจากการมีปฏิสัมพันธ์กับสิ่งต่าง ๆ หรือการประมวลผลข้อมูลเหล่านั้น (3) อย่างน้อยต้องมีลักษณะทางกายภาพ (4) มีความสามารถในการปรับเปลี่ยนพฤติกรรมและการกระทำตามสภาวะแวดล้อม และ (5) ไม่มีชีวิตในความหมายในทางชีววิทยา

คุณลักษณะทั้ง 5 ประการดังกล่าวจะเป็นลักษณะพื้นฐานของการกำหนดความหมายของ Smart Robot ในอนาคต และจากกรอบนโยบายข้างต้น หุ่นยนต์อัจฉริยะนี้จึงไม่ใช่แต่เพียงสมองกลหรือระบบปัญญาประดิษฐ์ แต่จะต้องมีลักษณะทางกายภาพหรือรูปร่างที่ปรากฏด้วยและเข้ามาอยู่ในสภาพแวดล้อมร่วมกับมนุษย์

2.หลักการพื้นฐานของการพัฒนาหุ่นยนต์อัจฉริยะ Civil Law Rules on Robotics กำหนดว่าการพัฒนาหุ่นยนต์อัจฉริยะต้องอยู่บนพื้นฐานของการเคารพต่อคุณค่าสากลของความเป็นมนุษย์ (Universal humanistic values) โดยมีการอ้างอิงไปถึง Asimov’s “Three Laws of Robotics” (1942) ซึ่งเป็นนวนิยายไซไฟของ Isaac Asimov ที่กล่าวถึงกฎของหุ่นยนต์ 3 ประการ กล่าวคือ กฎข้อที่ 1 หุ่นยนต์ต้องไม่กระทำอันตรายต่อมนุษย์ และไม่งดเว้นกระทำการใด ๆ ที่ทำให้เกิดอันตรายต่อมนุษย์ กฎข้อที่ 2 หุ่นยนต์ต้องเชื่อฟังคำสั่งของมนุษย์ เว้นแต่คำสั่งดังกล่าวจะขัดกับกฎข้อที่ 1 และกฎข้อที่ 3 หุ่นยนต์ต้องรักษาการดำรงอยู่ของตนตราบเท่าที่การรักษาการดำรงอยู่ดังกล่าวไม่ขัดหรือแย้งกับกฎข้อที่ 1 และ 2

หลักการดังกล่าวสอดคล้องกับแนวคิดเรื่อง Human-Centric AI ที่สหภาพยุโรปได้กำหนดเป็นหลักการในการพัฒนาด้าน AI ว่า การพัฒนาด้าน AI ต้องมีมนุษย์เป็นศูนย์กลางและการออกแบบทางเทคโนโลยีใด ๆ ต้องไม่ส่งผลให้ทำร้ายมนุษย์

ในการพัฒนาหุ่นยนต์อัจฉริยะสำหรับการใช้ของพลเรือน (civil use) สหภาพยุโรปจะนำระบบการจดทะเบียนมาใช้บังคับ ซึ่งจะต้องมีการจัดหมวดหมู่และประเภทของหุ่นยนต์ด้วย รวมถึงการให้มีองค์กรในระดับสหภาพเพื่อควบคุมเรื่องกระบวนการจดทะเบียนดังกล่าว

นอกจากนี้ หลักการสำคัญที่สุดประการหนึ่งในการพัฒนาเทคโนโลยีหุ่นยนต์อัจฉริยะ คือ ต้องเป็นการพัฒนาเพื่อส่งเสริมความสามารถของมนุษย์แต่ไม่ใช่เพื่อทดแทนมนุษย์ และมนุษย์ต้องสามารถเข้าควบคุมหุ่นยนต์ได้ตลอดเวลา

3.หลักความรับผิด (Liability) เมื่อหุ่นยนต์อัจฉริยะมีความเป็นอิสระในการคิดและการกระทำมากขึ้น (level of autonomous) ในอนาคตหุ่นยนต์อัจฉริยะอาจจะสามารถกระทำการหรืองดเว้นกระทำการใด ๆ โดยปราศจากการควบคุมของมนุษย์ หรือไม่ใช่เป็นเพียงแต่อุปกรณ์หรือสิ่งของที่มนุษย์ควบคุมเท่านั้น เมื่อหุ่นยนต์อัจฉริยะเหล่านี้ก่อให้เกิดความเสียหายแก่มนุษย์ หลักความรับผิดทางแพ่งที่มีอยู่ในปัจจุบันอาจจะไม่เหมาะสมอีกต่อไป เนื่องจากตามกฎหมายปัจจุบัน หุ่นยนต์ไม่อาจมีความรับผิดตามกฎหมายโดยตรงในฐานะผู้กระทำละเมิด แต่เป็นเจ้าของหรือผู้ควบคุม หรือผู้ผลิตที่ต้องรับผิดหากหุ่นยนต์ก่อให้เกิดความเสียหายขึ้น

ในขณะที่หลักความรับผิดโดยเคร่งครัด (strict liability) ที่ใช้ในระบบความรับผิดต่อความเสียหายที่เกิดจากสินค้าที่ไม่ปลอดภัย (product liability) ก็มีข้อจำกัดในการนำไปปรับใช้กับความรับผิดของหุ่นยนต์ที่สามารถกระทำการได้โดยอิสระ เนื่องจากหลักความรับผิดดังกล่าวต้องมีความสัมพันธ์ระหว่างความเสียหายกับผลจากความไม่ปลอดภัยตามเงื่อนไขที่กฎหมายกำหนดเท่านั้น ถ้าหุ่นยนต์อัจฉริยะก่อให้เกิดความเสียหายจากการกระทำต่าง ๆ ที่ไม่ได้เกิดจากความบกพร่องในกระบวนการผลิต (manufacturing defect) หรือการออกแบบ (design defect) หลักความรับผิดต่อความเสียหายที่เกิดจากสินค้าที่ไม่ปลอดภัยก็จะไม่สามารถนำมาใช้บังคับได้

ด้วยเหตุนี้ สหภาพยุโรปจึงมีความจำเป็นที่จะต้องกำหนดหลักการทางกฎหมายว่าด้วยความรับผิดของหุ่นยนต์อัจฉริยะเสียใหม่ โดยคำนึงถึงความเป็นธรรมต่อผู้เสียหาย การสร้างความเชื่อมั่นต่อการใช้งานหุ่นยนต์อัจฉริยะ และต้นทุนของการพัฒนา

4.หลักการทางจริยธรรม กรณีนี้อาจถือได้ว่าเป็นประเด็นที่ยากที่สุดและอ่อนไหวที่สุดในการออกแบบว่าระบบจะปลูกฝังและกำหนดคุณค่าทางจริยธรรมให้แก่หุ่นยนต์อัจฉริยะอย่างไร ทำอย่างไรไม่ให้มีการเลือกปฏิบัติต่อบุคคลด้วยเหตุแห่งเชื้อชาติ ศาสนาหรือความเชื่อต่าง ๆ โดยหุ่นยนต์อัจฉริยะต้องคำนึงถึงความปลอดภัยของมนุษย์ อิสรภาพ สิทธิส่วนบุคคลและการคุ้มครองข้อมูลส่วนบุคคลของมนุษย์เป็นหลักการสำคัญ

ศุภวัชร์ มาลานนท์

คณะนิติศาสตร์ มหาวิทยาลัยสงขลานครินทร์

Fulbright Hubert H. Humphrey Fellowship

American University Washington College of Law

Back to top button