ดาบสองคม? ซีอีโอ ‘Google DeepMind’ เตือน AI ทำให้เป็นอัจฉริยะได้ แต่ก็ทำให้สมองทื่อลงได้เช่นกัน

21 ก.พ. 2569 - 15:04

  • เดมิส ฮัสซาบิส ประธานเจ้าหน้าที่บริหารของ ‘Google DeepMind’ เตือนว่า “AI สามารถทำให้ทักษะการคิดเชิงวิเคราะห์เฉียบคมขึ้น หรือลดลงได้ในเวลาเดียวกัน”

  • ขณะที่ผู้นำด้านเทคโนโลยีรายอื่นๆ ก็ได้เตือนเช่นกันว่า “AI อาจนำไปสู่การพึ่งพามันเกินไปและทำให้เราขี้เกียจมากขึ้น”

ดาบสองคม? ซีอีโอ ‘Google DeepMind’ เตือน AI ทำให้เป็นอัจฉริยะได้ แต่ก็ทำให้สมองทื่อลงได้เช่นกัน

เดมิส ฮัสซาบิส ประธานเจ้าหน้าที่บริหารของ ‘Google DeepMind’ เตือนว่า “ปัญญาประดิษฐ์ (AI) ก่อให้เกิดความเสี่ยงร้ายแรง ซึ่งจำเป็นต้องได้รับการแก้ไขและความร่วมมือระหว่างประเทศอย่างเร่งด่วน...ขึ้นอยู่กับตัวคุณเองว่าจะใช้ AI ในทางที่ทำให้สมองของคุณเฉียบคมขึ้น หรือค่อยๆ ทำให้สมองของคุณทื่อลง” 

“AI ก็เหมือนกับอินเทอร์เน็ต ผู้คนสามารถใช้มันเพื่อเรียนรู้หัวข้อต่างๆ หรือใช้มันในทางที่ ‘ลดทอน’ การคิดของพวกเขาได้ ถ้าคุณใช้ AI อย่างไม่ระมัดระวัง มันจะทำให้คุณคิดวิเคราะห์ได้แย่ลง แต่ทั้งหมดนั้นก็ขึ้นอยู่กับตัวคุณเอง ไม่มีใครช่วยคุณได้” 

ฮัสซาบิส ให้สัมภาษณ์ที่งานประชุม ‘AI Impact Summit’ ในกรุงเดลี ประเทศอินเดีย 

ฮัสซาบิส กล่าวอีกว่า “สิ่งสำคัญคือการสร้าง ‘มาตรการป้องกันที่แข็งแกร่ง’ เพื่อรับมือกับภัยคุกคามที่ร้ายแรงที่สุดจากความก้าวหน้าของระบบอัตโนมัติ” 

ภัยคุกคามหลัก 2 ประการ ได้แก่ : 

  • การที่เทคโนโลยีถูกใช้โดย ‘ผู้ไม่ประสงค์ดี’ 
  • ความเสี่ยงจากการสูญเสียการควบคุมระบบเมื่อมันทรงพลังยิ่งขึ้น 

เมื่อฮัสซาบิสถูกถามว่าเขามีอำนาจในการชะลอความก้าวหน้าของเทคโนโลยีเพื่อให้ผู้เชี่ยวชาญมีเวลามากขึ้นในการแก้ปัญหาหรือไม่ เขาก็ตอบว่า บริษัทของเขามีบทบาทสำคัญ แต่เป็นเพียง ‘ผู้เล่นรายหนึ่งในระบบนิเวศ’ นอกจากนี้ ฮัสซาบิสยังยอมรับอีกว่า “การตามให้ทันกับความก้าวหน้าของ AI นั้นเป็น ‘เรื่องยาก’ สำหรับหน่วยงานกำกับดูแล” 

ในปัจจุบัน AI ถูกนำมาใช้ในชีวิตประจำวันมากขึ้น ขณะที่การถกเถียงเกี่ยวกับความเสี่ยงและประโยชน์ของ AI ก็ทวีความรุนแรงขึ้นด้วยเช่นเดียวกัน ซึ่งผู้นำด้านเทคโนโลยีส่วนใหญ่ต่างออกมาเตือนถึงอันตรายของการพึ่งพาเครื่องมือ AI มากเกินไป 

มาร์ค คิวบาน มหาเศรษฐีด้านเทคโนโลยี กล่าวเมื่อช่วงต้นสัปดาห์นี้ว่า “มีคน 2 ประเภทที่ใช้ AI คือ คนที่ใช้มันเพื่อเรียนรู้ทุกอย่าง และคนที่ใช้มันเพื่อไม่ต้องเรียนรู้อะไรเลย” คิวบาน กล่าวถึง ‘LLM’ โมเดลปัญญาประดิษฐ์ขนาดใหญ่  

ก่อนหน้านี้ คิวบานเคยกล่าวว่า “แบบจำลอง AI ไม่สามารถให้คำตอบได้ทุกอย่างและ ‘โง่’ แต่ก็เหมือน ‘อัจฉริยะที่จำได้ทุกอย่าง’” 

ด้าน อาเทอร์ เมนส์ ซีอีโอบริษัท ‘Mistral AI’ เคยกล่าวในที่ประชุมเมื่อเดือนมิถุนายน 2025 ว่า “ความเสี่ยงของการใช้ AI สำหรับทุกอย่างคือ มนุษย์จะหยุดพยายาม” 

“ความเสี่ยงที่ใหญ่ที่สุดของ AI ไม่ใช่ว่ามันจะฉลาดกว่าเรา หรือควบคุมไม่ได้ แต่คือมันจะทำให้เราสบายเกินไป พึ่งพามากเกินไป และท้ายที่สุดก็จะทำให้เราขี้เกียจที่จะคิด หรือลงมือทำด้วยตัวเอง”

เมนส์ กล่าว 

(Photo by PAU BARRENA / AFP) 

เรื่องเด่นประจำสัปดาห์