เมื่อ POLITICO ยื่นข้อกล่าวหาต่อคณะกรรมาธิการยุโรป โฆษกคนหนึ่งกล่าวว่า “เรื่องนี้ถูกคิดค้นขึ้น มันเป็นเรื่องเท็จ”และตลาดสำหรับหุ่นยนต์อุตสาหกรรม — เครื่องจักรที่สามารถประกอบรถยนต์หรือทำงานสายการประกอบที่ซับซ้อน — คาดว่า จะ ขยายตัวเช่นกัน โดยมีมูลค่าถึง 4 หมื่นล้านดอลลาร์ในปี 2563 เทียบกับ 25.7 พันล้านดอลลาร์ในปี 2556ความเฟื่องฟูในปัจจุบันเกี่ยวข้องกับความจริงที่ว่าหุ่นยนต์เพิ่งเข้าสู่ขั้นตอนที่สองของวิวัฒนาการ 59 ปีหลังจากหุ่นยนต์อุตสาหกรรมตัวแรกเข้าร่วมสายการผลิตของโรงงาน American General Motors
ในทศวรรษต่อๆ มา เครื่องจักรยังคงตอบสนอง
เป็นส่วนใหญ่ ตั้งโปรแกรมให้ทำงานที่กำหนดไว้ให้เสร็จ และตอบสนองต่อสถานการณ์ในจำนวนที่จำกัด
แนวคิดเบื้องหลังการสร้างบุคลิกภาพแบบอิเล็กทรอนิกส์ไม่ได้เกี่ยวกับการให้สิทธิมนุษยชนแก่หุ่นยนต์ แต่เพื่อให้แน่ใจว่าหุ่นยนต์จะยังคงเป็นเครื่องจักรโดยมีมนุษย์คอยหนุนหลังอยู่
ในทางตรงกันข้าม การพัฒนาล่าสุดช่วยให้เครื่องจักรสามารถทำงานที่ต้องใช้ความคิดของมนุษย์ก่อนหน้านี้ได้ เทคโนโลยีที่ล้ำสมัยในปัจจุบันทำให้คอมพิวเตอร์สามารถเรียนรู้และตัดสินใจได้เองโดยเลียนแบบและเพิ่มจำนวนรูปแบบสมองของมนุษย์
ความกังวลของฝ่ายนิติบัญญัติ: กระบวนการที่ซับซ้อนดังกล่าวจะทำให้เครื่องจักรกลายเป็น ” กล่องดำ ” ซึ่งกระบวนการตัดสินใจนั้นยากหรือแม้แต่เป็นไปไม่ได้ที่จะเข้าใจ และด้วยเหตุนี้จึงเข้าไม่ได้สำหรับผู้ดำเนินคดีที่ต้องการแสดงความรับผิดชอบทางกฎหมายสำหรับปัญหา
หุ่นยนต์สามารถแต่งงานได้หรือไม่?
ผู้สนับสนุนจึงแย้งว่า ยุโรปควรให้ “สถานะทางกฎหมาย” แก่หุ่นยนต์เอง แทนที่จะสร้างภาระให้ผู้ผลิตหรือเจ้าของหุ่นยนต์
“ในสถานการณ์ที่อัลกอริทึมสามารถตัดสินใจได้เอง แล้วใครควรรับผิดชอบการตัดสินใจเหล่านี้” Stefania Lucchetti ทนายความของบริษัทในมิลานกล่าวว่า
หุ่นยนต์ฮิวแมนนอยด์ Sophia ได้รับการเสนอชื่อโดย UNDP ให้เป็นแชมป์นวัตกรรมที่ไม่ใช่มนุษย์คนแรกในเดือนพฤศจิกายน 2017 | Prakash Mathema / AFP ผ่าน Getty Images
โมเดลปัจจุบันซึ่งผู้ผลิต เจ้าของ หรือทั้งคู่ต้องรับผิด จะเลิกใช้ไปในยุคของหุ่นยนต์อัตโนมัติเต็มรูปแบบ และสหภาพยุโรปควรให้หุ่นยนต์มีบุคลิกทางกฎหมายบางอย่าง “เหมือนที่บริษัทต่างๆ มี” เธอกล่าวเสริม
“บุคลิกภาพ” ที่เธอกล่าวถึงเป็นแนวคิดที่ย้อนกลับไปในศตวรรษที่ 13 เมื่อสมเด็จพระสันตะปาปาอินโนเซนต์ที่ 4 พระราชทานสถานะบุคคลแก่อาราม ทุกวันนี้ แทบทุกประเทศทั่วโลกนำโมเดลนี้ไปใช้กับบริษัทต่างๆ ซึ่งหมายความว่าบริษัทต่างๆ มีสิทธิและความรับผิดชอบทางกฎหมายบางอย่างของมนุษย์ รวมถึงสามารถเซ็นสัญญาหรือถูกฟ้องร้องได้ รูปแบบทางกฎหมายที่คล้ายคลึงกันสำหรับหุ่นยนต์ ผู้สนับสนุนให้เหตุผลว่า การให้สิทธิแก่หุ่นยนต์จะน้อยกว่า และให้พวกเขารับผิดชอบเมื่อเกิดข้อผิดพลาด เช่น การจัดทำแผนประกันภาคบังคับที่สามารถเลี้ยงด้วยความมั่งคั่งที่หุ่นยนต์สะสมไว้ ตลอดเวลาที่ “ดำรงอยู่”
“นี่ไม่ได้หมายความว่าหุ่นยนต์จะประหม่า
หรือสามารถแต่งงานกับหุ่นยนต์ตัวอื่นได้” Lucchetti กล่าว
ในทำนองเดียวกัน Delvaux เน้นว่าแนวคิดเบื้องหลังการสร้างบุคลิกภาพแบบอิเล็กทรอนิกส์ไม่ได้เกี่ยวกับการให้สิทธิมนุษยชนแก่หุ่นยนต์ แต่เพื่อให้แน่ใจว่าหุ่นยนต์ยังคงเป็นและยังคงเป็นเครื่องจักรโดยมีมนุษย์คอยหนุนหลังอยู่
นอกเหนือจากโซเฟีย
ข้อถกเถียงเกี่ยวกับหุ่นยนต์แห่งอนาคตปิดบังความจริงว่าหุ่นยนต์ที่มีสติปัญญาและการตัดสินใจเหมือนมนุษย์ยังคงเป็นโอกาสที่ห่างไกล
หุ่นยนต์ในปัจจุบันดีกว่ามนุษย์ในแอปพลิเคชันแคบๆ บางอย่าง เช่น การจดจำรูปภาพ หรือเล่นเกมกระดานจีนGo
“ฉันไม่รังเกียจความคิดของหุ่นยนต์การแสดงเลย แต่เมื่อพวกเขาเริ่มนำเสนอต่อสหประชาชาติและให้ความคิดผิดๆ แก่ประเทศต่างๆ ว่าหุ่นยนต์สามารถทำอะไรได้บ้างและ AI อยู่ที่ไหนในขณะนี้ มันอันตรายมาก” – Noel ชาร์กี้
แต่แอปพลิเคชันที่ล้ำสมัยดังกล่าวจะเก่งเฉพาะในสาขาแคบๆ แห่งเดียวเท่านั้น การเล่น Go หรือการจัดหมวดหมู่รูปภาพเป็นสิ่งเดียวที่เครื่องจักรดังกล่าวสามารถทำได้ ซึ่งแตกต่างจากมนุษย์ที่สามารถเข้าใจภาษา เรียนรู้การเล่นเกมกระดานที่หลากหลาย และจดจำรูปภาพได้ในเวลาเดียวกัน
ถึงกระนั้นก็ตาม รายงานของสื่อเกี่ยวกับความก้าวหน้าด้านวิทยาการหุ่นยนต์ ซึ่งอาจบ่งชี้ว่าหน่วยสืบราชการลับของหุ่นยนต์ที่ครอบคลุมทั้งหมดอยู่ไม่ไกลเกินเอื้อม – ได้แทรกซึมการอภิปรายสาธารณะ ผู้ลงนามในจดหมายเตือนว่านั่นอาจทำให้ฝ่ายนิติบัญญัติรีบเร่งออกกฎหมายก่อนกำหนด
จากข้อมูลของนักวิจัยบางคน ไม่มีหุ่นยนต์ตัวใดที่ถ่ายทอดแนวคิดผิดๆ เกี่ยวกับวิทยาการหุ่นยนต์ได้มากเท่ากับโซเฟีย หุ่นยนต์คล้ายมนุษย์ที่ปรากฏตัวครั้งแรกในเดือนมีนาคม 2016 และหลังจากนั้นก็กลายเป็นพลเมืองของซาอุดีอาระเบีย ได้รับพระราชทานชื่อจากองค์การสหประชาชาติและเปิดการประชุมความมั่นคงมิวนิกในปีนี้
“ฉันไม่รังเกียจความคิดของหุ่นยนต์การแสดงเลย” ชาร์กีย์ ผู้ร่วมลงนามในจดหมายและเป็นผู้ร่วมก่อตั้ง Foundation for Responsible Robotics กล่าว “แต่เมื่อพวกเขาเริ่มนำเสนอต่อ UN และให้นานาประเทศเข้าใจผิดว่าหุ่นยนต์สามารถทำอะไรได้บ้าง และ AI อยู่ที่ไหนในตอนนี้ มันอันตรายมาก”
เขาเสริมว่า: “มันอันตรายมากสำหรับฝ่ายนิติบัญญัติเช่นกัน พวกเขาเห็นสิ่งนี้และเชื่อ เพราะพวกเขาไม่ใช่วิศวกร และไม่มีเหตุผลที่จะไม่เชื่อ”
credit : ฝากถอนไม่มีขั้นต่ำ