ทำไมเราต้องจัดการ AI ก่อนที่มันจะจัดการเรา
TL;DR
• AI ที่มีอำนาจมากกว่าที่เราเคยเห็นกำลังจะมาถึงภายใน 20 ปีนี้ และเราไม่รู้จริงๆ ว่ามันจะทำงานยังไง • การรอให้เกิดปัญหาแล้วค่อยแก้นั้นแพงกว่าการป้องกันล่วงหน้า เหมือนกับที่เราเห็นกับ social media • การยอมชะลอการพัฒนาบ้างเพื่อความปลอดภัยนั้นคุ้มค่ากว่าการเสี่ยงกับผลกระทบที่อาจย้อนกลับไม่ได้
แนวคิดหลัก
เราอยู่ในช่วงเวลาที่ AI กำลังพัฒนาไปอย่างรวดเร็วจนน่าตกใจ สิ่งที่เป็นไปไม่ได้เมื่อ 5 ปีที่แล้วกลับเกิดขึ้นจริงในวันนี้ และถ้าเราไม่เตรียมตัวให้พร้อมตั้งแต่ตอนนี้ เราอาจจะต้องเผชิญกับผลกระทบที่ใหญ่กว่า social media หลายเท่าตัว
ปัญหาใหญ่ก็คือเราไม่ได้ "สร้าง" AI จริงๆ แต่เรา "เลี้ยงดู" มันมากกว่า ซึ่งหมายความว่าแม้แต่คนที่พัฒนามันก็ไม่รู้ว่าข้างในนั้นมันทำงานยังไง ความไม่แน่นอนแบบนี้เลยทำให้เรามีเหตุผลที่ดีในการระมัดระวังและเตรียมพร้อมล่วงหน้า แม้ว่าจะต้องแลกมาด้วยการชะลอการพัฒนาบ้างก็ตาม
ทำไมถึงเป็นเช่นนั้น
ความสามารถของ AI เพิ่มขึ้นอย่างต่อเนื่องทั้งในเรื่องปริมาณและคุณภาพ การขยายขนาดการคำนวณมีประวัติยาวนานในการทำให้ AI เก่งขึ้น และตอนนี้มีเงินลงทุนมหาศาลหลั่งไหลเข้ามาขับเคลื่อนการวิจัยให้ไปต่อ นี่ไม่ใช่แค่การคาดเดาของคนนอกวงการนะ แม้แต่ผู้เชี่ยวชาญชั้นนำอย่าง Yoshua Bengio และ Geoffrey Hinton ที่เป็นคนสำคัญในการพัฒนา AI มาตั้งแต่ต้น ยังออกมาแสดงความกังวลเรื่องอันตรายจาก AI ขั้นสูงกันเลย
สิ่งที่น่ากังวลที่สุดก็คือเราไม่เข้าใจจริงๆ ว่า AI ทำงานอย่างไร ระบบ AI สมัยใหม่ถูก "เทรน" ให้เรียนรู้จากข้อมูลมหาศาล แต่กระบวนการภายในที่ทำให้มันตอบคำถามหรือตัดสินใจนั้นเป็นกล่องดำที่เราไม่สามารถมองเข้าไปได้ ความไม่แน่นอนแบบนี้เลยสร้างความเป็นไปได้ที่ AI จะทำสิ่งที่เราคาดไม่ถึง และบางทีอาจเป็นอันตรายด้วย
ตัวอย่างในชีวิตจริง
ลองดู social media สิ เมื่อ 15 ปีที่แล้ว ใครจะไปคิดว่า Facebook หรือ TikTok จะมีอิทธิพลต่อสังคมขนาดนี้ ตอนนี้เราเห็นแล้วว่าเด็กๆ ติดโทรศัพท์จนส่งผลต่อสุขภาพจิต การเรียน และความสัมพันธ์ในครอบครัว ปัญหาพวกนี้เกิดขึ้นเพราะเราไม่ได้คิดล่วงหน้าและปล่อยให้เทคโนโลยีแพร่กระจายไปก่อน แล้วค่อยมาแก้ปัญหาทีหลัง
ตอนนี้หลายประเทศเลยต้องออกนโยบายจำกัดการใช้โทรศัพท์ในโรงเรียน หรือกฎหมายตรวจสอบอายุสำหรับ social media แต่มันก็สายไปแล้ว เพราะคนทั้งโลกติด social media กันไปหมดแล้ว การแก้ปัญหาแบบนี้เลยแพงและยากกว่าการป้องกันตั้งแต่แรก
สิ่งที่ดูเป็นไปไม่ได้เมื่อ 5 ปีที่แล้วในโลก AI กลับเกิดขึ้นจริงในวันนี้ ถ้า AI มีผลกระทบมากกว่า social media สัก 5-20 เท่า เราคิดดูสิว่าจะเกิดอะไรขึ้นถ้าเราไม่เตรียมตัว
บริบทไทย
ในบ้านเราก็เห็นผลกระทบของ social media ต่อเด็กไทยกันแล้ว จนรัฐบาลต้องออกมาตรการต่างๆ มาควบคุม ไม่ว่าจะเป็นการรณรงค์ให้ผู้ปกครองควบคุมเวลาใช้โทรศัพท์ของลูก หรือการที่โรงเรียนบางแห่งเริ่มห้ามนำโทรศัพท์เข้าห้องเรียน แต่ทุกอย่างนี้มันเป็นการแก้ปัญหาทีหลัง ไม่ใช่การป้องกันล่วงหน้า
การเตรียมพร้อมสำหรับ AI ล่วงหน้าจะช่วยให้เราไม่ต้องเผชิญกับสถานการณ์แบบเดียวกัน ที่ต้องมาแก้ปัญหาทีหลังด้วยต้นทุนที่สูงกว่า เราควรเรียนรู้จากประสบการณ์ social media และทำให้ดีขึ้นในเรื่อง AI
ประเทศไทยมีโอกาสที่จะเป็นหนึ่งในประเทศที่เตรียมพร้อมได้ดี เพราะเราเห็นผลกระทบของเทคโนโลยีแล้ว และเรายังมีเวลาที่จะวางแผนและสร้างกรอบการทำงานที่เหมาะสม แทนที่จะต้องมาวิ่งตามหลังเหมือนเรื่อง social media
ข้อควรระวัง
แน่นอนว่าไม่ใช่ผู้เชี่ยวชาญทุกคนจะเห็นด้วยกับความกังวลเรื่องความเสี่ยงจาก AI หลายคนคิดว่าเรากังวลเกินไป หรือว่าการควบคุมจะชะลอการพัฒนาที่เป็นประโยชน์ และจริงอยู่ที่แม้แต่ผู้เชี่ยวชาญก็อาจผิดพลาดหรือมั่นใจเกินไปได้ การทำนายเทคโนโลジีใหม่ก็เป็นเรื่องยากจริงๆ
แต่นั่นไม่ได้หมายความว่าเราควรเพิกเฉยต่อความเสี่ยง การควบคุมจะมีต้นทุนแน่นอน และอาจทำให้การพัฒนาช้าลงบ้าง แต่เราต้องระวังไม่ให้ตัวเองคิดว่าการควบคุมจะเป็น "การผ่าตัดที่แม่นยำ" ทั้งที่จริงแล้วนโยบายเป็นเหมือนมีดพร้ามากกว่าเมส มันจะมีผลข้างเคียงและการแลกเปลี่ยนที่เราต้องยอมรับ
สิ่งที่อันตรายที่สุดคือการรอให้เกิดปัญหาแล้วค่อยแก้ หรือการปฏิเสธความไม่แน่นอนและความเสี่ยงที่มีอยู่จริง เราไม่ควรมองข้ามต้นทุนที่จำเป็น แต่เราก็ไม่ควรเสี่ยงกับผลกระทบที่อาจย้อนกลับไม่ได้
ในท้ายที่สุดแล้ว การเตรียมพร้อมล่วงหน้าไม่ได้หมายความว่าเราต้องหยุดการพัฒนา AI แต่หมายความว่าเราต้องพัฒนาอย่างระมัดระวังและมีความรับผิดชอบ เพื่อให้แน่ใจว่าเทคโนโลยีที่ทรงพลังนี้จะเป็นประโยชน์ต่อมนุษยชาติ ไม่ใช่เป็นอันตราย
แหล่งที่มา
คำศัพท์วันนี้
การลดความเสี่ยง, การป้องกัน
the action of reducing the severity or seriousness of something
“Companies must implement proper mitigations before deploying powerful AI systems.”
