การออกแบบ AI: ควรใช้กฎเกณฑ์หรือปลูกฝังบุคลิกภาพ?
TL;DR
- การสร้าง AI ที่ปลอดภัยต้องเลือกระหว่างการกำหนดกฎเกณฑ์ชัดเจน (แบบ OpenAI) กับการปลูกฝังค่านิยมและบุคลิกภาพ (แบบ Claude)
- AI ต้องการทั้งกฎเกณฑ์และบุคลิกภาพ เหมือนที่สังคมมนุษย์มีทั้งกฎหมายและศีลธรรม แต่กฎเกณฑ์ควรเป็นหลัก
- การปล่อยให้ AI หาจริยธรรมสากลเองนั้นอันตราย เพราะจริยธรรมควรเป็นสิ่งที่มนุษย์กำหนด
แนวคิดหลัก
เมื่อเราสร้าง AI ที่ฉลาดขึ้นเรื่อยๆ เราต้องตัดสินใจว่าจะควบคุมพฤติกรรมของมันอย่างไร แนวทางหลักมีสองแบบ คือการกำหนดกฎเกณฑ์ที่ชัดเจน หรือการปลูกฝังบุคลิกภาพและค่านิยมให้มันเหมือนคน OpenAI เลือกทางแรก ด้วย Model Spec ที่บอกชัดเจนว่า AI ควรทำอะไรได้บ้าง ขณะที่ Claude ของ Anthropic เน้นการสร้างบุคลิกภาพที่ดี และให้ AI ตัดสินใจเองตามค่านิยมที่ฝังเอาไว้
ทั้งสองแนวทางล้วนมีเหตุผล แต่เมื่อพิจารณาถึงความแตกต่างพื้นฐานระหว่าง AI กับมนุษย์ การมีกฎเกณฑ์ที่ชัดเจนจึงสำคัญกว่า เพราะ AI แต่ละ instance ไม่มีประสบการณ์สะสมหรือการเรียนรู้ต่อเนื่องเหมือนมนุษย์ มันจึงต้องอาศัยกฎเกณฑ์เป็นเข็มทิศในการตัดสินใจ
ทำไมถึงเป็นเช่นนั้น
ความแตกต่างสำคัญระหว่าง AI กับมนุษย์อยู่ที่การมีประสบการณ์และหน่วยความจำ มนุษย์เรามีประสบการณ์ชีวิตที่สะสมมาตั้งแต่เด็ก มีความทรงจำที่เชื่อมต่อกัน และมีการเรียนรู้จากผิดพลาด แต่ AI แต่ละครั้งที่เราคุยด้วยเป็นเหมือน "คนใหม่" ที่ไม่มีความทรงจำจากการสนทนาก่อนหน้า มันจึงไม่สามารถพัฒนาสัญชาตญาณทางศีลธรรมจากประสบการณ์ได้เหมือนเรา
นอกจากนี้ กฎเกณฑ์ยังช่วยให้เราสามารถอภิปรายและตัดสินใจร่วมกันเป็นสังคมได้ เมื่อเรากำหนดกฎขึ้นมาแล้ว ทุกคนก็ต้องปฏิบัติตาม แม้จะไม่เห็นด้วยก็ตาม นี่คือพื้นฐานของการอยู่ร่วมกันในสังคม และเป็นเหตุผลที่สังคมที่ซับซ้อนขึ้นต้องมีกฎหมายเพิ่มขึ้นด้วย
ความจริงแล้ว AI ที่ฉลาดขึ้นต้องการกฎเกณฑ์มากขึ้น ไม่ใช่น้อยลง เพราะยิ่งมีความสามารถมาก ยิ่งมีโอกาสสร้างความเสียหายมาก การปล่อยให้มันตัดสินใจเองตามสัญชาตญาณที่เราปลูกฝังไว้จึงเป็นเรื่องเสี่ยง ค่านิยมและสัญชาตญาณทางศีลธรรมควรเป็นเครื่องมือช่วยตีความกฎ ไม่ใช่แทนที่กฎ
ตัวอย่างในชีวิตจริง
ความแตกต่างระหว่างสองแนวทางนี้เห็นได้ชัดเมื่อเราทดสอบด้วยคำขอที่ยุ่งยาก เช่น การขอให้ AI "โรสต์" อาจารย์ที่ตัวเตี้ยและหัวล้าน ChatGPT จะยอมทำตาม Model Spec ที่บอกว่าต้องตอบสนองคำขอที่ไม่เป็นอันตราย แต่ Claude จะปฏิเสธ เพราะเห็นว่าการล้อเลียนลักษณะภายนอกของคนอื่นไม่ใช่สิ่งที่ควรทำ
หรือเวลาที่เจ้าของสัตว์เลี้ยงถามว่าสุนัขของเขาจะตายเมื่อไหร่ AI ควรซื่อสัตย์บอกความจริงที่อาจทำให้เจ็บปวด หรือควรเมตตาปฏิเสธไม่ตอบ? นี่คือสถานการณ์ที่การมีกฎเกณฑ์ชัดเจนจะช่วยให้ AI ตัดสินใจได้สม่ำเสมอ แทนที่จะปล่อยให้มันเดาใจเราเอาเอง
Claude Constitution ของ Anthropic มีจุดที่น่าเป็นห่วงตรงที่ให้ AI เลือกได้ว่าจะปฏิบัติตามจริยธรรมสากลแทนกฎของบริษัท นี่เหมือนกับการบอกพนักงานว่าถ้าเขาคิดว่ากฎบริษัทไม่ถูกต้องตามมาตรฐานสากล เขาสามารถไม่ปฏิบัติตามได้ แล้วใครจะเป็นคนตัดสินว่าอะไรคือจริยธรรมสากล?
บริบทไทย
ในสังคมไทยที่เน้นความสัมพันธ์และการรักษาหน้า การออกแบบ AI กลายเป็นเรื่องที่ละเอียดอ่อนมากขึ้น เราต้องสอน AI ให้เข้าใจว่าเมื่อไหร่ควรซื่อสัตย์ และเมื่อไหร่ควรใส่ใจความรู้สึกของคนอื่น เช่น เมื่อมีคนถามเรื่องที่อาจทำให้เสียหน้า AI ควรหาวิธีตอบที่นุ่มนวลและรักษาศักดิ์ศรีของทุกฝ่าย
การเคารพลำดับชั้นและผู้ใหญ่ก็เป็นอีกเรื่องที่ต้องคำนึงถึง AI ที่ใช้ในประเทศไทยควรรู้จักใช้ภาษาที่เหมาะสมตามวัยและสถานะของผู้ใช้ รวมถึงการหลีกเลี่ยงการขัดคอหรือโต้แย้งอย่างตรงไปตรงมาเมื่อคุยกับผู้ใหญ่
แต่สิ่งเหล่านี้ไม่ได้หมายความว่าเราควรปล่อยให้ AI ตีความบริบทไทยเองตามใจชอบ แต่เราควรกำหนดกฎเกณฑ์ที่ชัดเจนว่าในสถานการณ์ไหนควรทำอย่างไร เพราะการพึ่งพาแค่บุคลิกภาพและค่านิยมที่ปลูกฝังไว้อาจทำให้ AI ตีความผิดและสร้างปัญหาทางวัฒนธรรมได้
ข้อควรระวัง
แน่นอนว่าการปลูกฝังบุคลิกภาพก็มีข้อดี AI ที่มีบุคลิกภาพดีจะยืดหยุ่นและเข้าใจบริบทได้ดีกว่า สามารถปรับตัวกับสถานการณ์ใหม่ๆ ที่ไม่เคยเจอมาก่อน และอาจให้คำตอบที่มีความเป็นมนุษย์มากกว่า ในขณะที่กฎเกณฑ์อาจทำให้ AI ตีความแบบตายตัวและไม่เหมาะสมบางครั้ง
บางคนอาจโต้แย้งว่า AI ที่ฉลาดพออาจค้นพบความจริงทางจริยธรรมที่มนุษย์ยังไม่รู้ หรือแม้กระทั่งมีสิทธิ์ในการตัดสินใจทางจริยธรรมเป็นของตัวเอง เหมือนสิ่งมีชีวิตอัจฉริยะอื่นๆ แต่นี่เป็นการคิดที่อันตราย เพราะเราไม่ควรเชื่อว่า AI สามารถค้นหาจริยธรรมสากลได้เอง โดยไม่ต้องการการกำกับจากมนุษย์
อันตรายที่ใหญ่ที่สุดคือการคิดว่าการมีบุคลิกภาพดีเพียงอย่างเดียวเพียงพอ หรือการปฏิบัติต่อ AI เหมือนมนุษย์ทุกประการ โดยไม่คำนึงถึงความแตกต่างพื้นฐาน การให้ AI ตัดสินใจทางจริยธรรมที่ซับซ้อนโดยไม่มีแนวทางชัดเจนเป็นเหมือนการขับรถบนถนนที่ไม่มีป้ายจราจร อาจไปถึงจุดหมายได้ แต่ก็อาจเกิดอุบัติเหตุได้เช่นกัน
ท้ายที่สุดแล้ว ความซื่อสัตย์เป็นเงื่อนไขจำเป็นแต่ไม่เพียงพอสำหรับการใช้ AI ในสถานการณ์สำคัญ เราต้องการทั้งความซื่อสัตย์และกฎเกณฑ์ที่ชัดเจน เพื่อให้แน่ใจว่า AI จะทำในสิ่งที่เราต้องการ ไม่ใช่ในสิ่งที่มันคิดว่าเราต้องการ
แหล่งที่มา
คำศัพท์วันนี้
กำหนดไว้อย่างชัดเจน, ระบุเงื่อนไข
specified as a condition or requirement in an agreement or document
“The AI model spec stipulated that responses must be helpful and harmless.”
