ปัญญาประดิษฐ์ (AI) เป็นอันตรายหรือไม่?


ในวันจันทร์ที่ 22 พฤษภาคม 2023 บัญชี Twitter ที่ได้รับการยืนยันชื่อ "Bloomberg Feed" ได้แชร์ทวีตโดยอ้างว่ามี เหตุระเบิดที่เพนตากอน พร้อมด้วยรูปภาพ หากคุณสงสัยว่าสิ่งนี้เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ภาพดังกล่าวเป็นภาพที่สร้างขึ้นโดย AI โดยทวีตดังกล่าวแพร่ระบาดอย่างรวดเร็วและจุดประกายให้ตลาดหุ้นตกต่ำในช่วงสั้นๆ สิ่งต่าง ๆ อาจเลวร้ายกว่านี้มาก - เป็นเครื่องเตือนใจถึงอันตรายของปัญญาประดิษฐ์

อันตรายจากปัญญาประดิษฐ์

ไม่ใช่แค่ข่าวปลอมที่เราต้องกังวล มีความเสี่ยงที่เกิดขึ้นทันทีหรือที่อาจเกิดขึ้นที่เกี่ยวข้องกับ AI ตั้งแต่ที่เกี่ยวข้องกับความเป็นส่วนตัวและความปลอดภัยไปจนถึงปัญหาอคติและลิขสิทธิ์ เราจะเจาะลึกถึงอันตรายของปัญญาประดิษฐ์เหล่านี้ ดูสิ่งที่กำลังดำเนินการเพื่อลดความเสี่ยงทั้งในปัจจุบันและในอนาคต และถามว่าความเสี่ยงของ AI มีมากกว่าผลประโยชน์หรือไม่

ข่าวปลอม

ย้อนกลับไปเมื่อ Deepfakes เข้ามาครั้งแรก ก็มีความกังวลเกิดขึ้นว่าอาจถูกนำไปใช้โดยมีเจตนาร้าย สิ่งเดียวกันนี้อาจกล่าวได้สำหรับคลื่นลูกใหม่ของ เครื่องกำเนิดภาพ AI เช่น DALL-E 2, Midjourney หรือ DreamStudio เมื่อวันที่ 28 มีนาคม 2023 ภาพสมเด็จพระสันตะปาปาฟรานซิสที่สร้างโดย AI ปลอมตัวในแจ็กเก็ตปักเป้า Balenciaga สีขาว และเพลิดเพลินกับการผจญภัยมากมาย รวมถึงการเล่นสเก็ตบอร์ดและการเล่นโป๊กเกอร์ กลายเป็นกระแสไวรัล เว้นแต่คุณจะศึกษาภาพอย่างใกล้ชิด เป็นการยากที่จะแยกแยะภาพเหล่านี้จากของจริง

แม้ว่าตัวอย่างกับสมเด็จพระสันตะปาปาจะดูน่าสนุกไม่น้อยอย่างไม่ต้องสงสัย แต่ภาพ (และทวีตประกอบ) เกี่ยวกับกระทรวงกลาโหมก็เป็นอย่างอื่นไปไม่ได้ ภาพปลอมที่สร้างโดย AI มีอำนาจทำลายชื่อเสียง ยุติการแต่งงานหรืออาชีพ สร้างความไม่สงบทางการเมือง และอาจถึงขั้นเริ่มต้นสงครามหากใช้โดยคนผิด กล่าวโดยสรุป รูปภาพที่สร้างโดย AI เหล่านี้มีศักยภาพที่จะเป็นอันตรายอย่างมากหากนำไปใช้ในทางที่ผิด

ขณะนี้โปรแกรมสร้างภาพ AI เปิดให้ทุกคนใช้งานได้อย่างอิสระ และ Photoshop เพิ่มเครื่องสร้างภาพ AI สำหรับซอฟต์แวร์ยอดนิยม โอกาสในการจัดการภาพและสร้างข่าวปลอมจึงยิ่งใหญ่กว่าที่เคย

ความเป็นส่วนตัว ความปลอดภัย และการแฮ็ก

ความเป็นส่วนตัวและความปลอดภัยยังเป็นข้อกังวลอย่างมากเมื่อพูดถึงความเสี่ยงของ AI โดยมีหลายประเทศที่แบน ChatGPT ของ OpenAI แล้ว อิตาลีได้สั่งห้ามโมเดลนี้เนื่องจากปัญหาความเป็นส่วนตัว โดยเชื่อว่าไม่เป็นไปตามกฎระเบียบคุ้มครองข้อมูลทั่วไปของยุโรป (GDPR) ในขณะที่รัฐบาลจีน เกาหลีเหนือ และรัสเซียสั่งห้ามเนื่องจากกลัวว่าจะเผยแพร่ข้อมูลที่ผิด.

เหตุใดเราจึงกังวลเรื่องความเป็นส่วนตัวเมื่อพูดถึง AI แอพเอไอ และระบบรวบรวมข้อมูลจำนวนมากเพื่อเรียนรู้และคาดการณ์ แต่ข้อมูลนี้ถูกจัดเก็บและประมวลผลอย่างไร? มีความเสี่ยงอย่างแท้จริงที่ข้อมูลจะถูกละเมิด การแฮ็ก และข้อมูลตกไปอยู่ในมือของผู้ไม่หวังดี

ไม่ใช่แค่ข้อมูลส่วนบุคคลของเราเท่านั้นที่มีความเสี่ยงเช่นกัน การแฮ็ก AI ถือเป็นความเสี่ยงอย่างแท้จริง — มันยังไม่เกิดขึ้น แต่หากผู้ที่มีเจตนาร้ายสามารถแฮ็กเข้าสู่ระบบ AI ได้ ก็อาจส่งผลร้ายแรงตามมา ตัวอย่างเช่น แฮกเกอร์สามารถควบคุมยานพาหนะไร้คนขับ แฮ็กระบบรักษาความปลอดภัย AI เพื่อเข้าถึงสถานที่ที่มีความปลอดภัยสูง และแม้แต่แฮ็กระบบอาวุธที่มีการรักษาความปลอดภัยด้วย AI

ผู้เชี่ยวชาญจากสำนักงานโครงการวิจัยขั้นสูงด้านกลาโหม (DARPA) ของกระทรวงกลาโหมสหรัฐฯ ตระหนักถึงความเสี่ยงเหล่านี้และกำลังทำงานในโครงการรับประกันความทนทานต่อ AI ต่อการหลอกลวง (GARD) ของ DARPA อยู่แล้ว โดยจัดการกับปัญหาตั้งแต่ต้นทาง เป้าหมายของโครงการคือเพื่อให้แน่ใจว่าการต่อต้านการแฮ็กและการปลอมแปลงนั้นถูกสร้างขึ้นในอัลกอริทึมและ AI

การละเมิดลิขสิทธิ์

อันตรายอีกประการหนึ่งของ AI คือการละเมิดลิขสิทธิ์ สิ่งนี้อาจฟังดูไม่ร้ายแรงเท่ากับอันตรายอื่นๆ ที่เรากล่าวถึง แต่การพัฒนาโมเดล AI เช่น GPT-4 ทำให้ทุกคนมีความเสี่ยงที่จะถูกละเมิดเพิ่มขึ้น

ทุกครั้งที่คุณขอให้ ChatGPT สร้างบางอย่างให้กับคุณ ไม่ว่าจะเป็นบล็อกโพสต์เกี่ยวกับการท่องเที่ยวหรือชื่อใหม่สำหรับธุรกิจของคุณ คุณกำลังป้อนข้อมูลซึ่งจะใช้เพื่อตอบคำถามในอนาคต ข้อมูลที่ป้อนกลับไปยังคุณอาจละเมิดลิขสิทธิ์ของบุคคลอื่น ซึ่งเป็นเหตุผลว่าทำไมการใช้เครื่องตรวจจับการลอกเลียนแบบและแก้ไขเนื้อหาใด ๆ ที่สร้างโดย AI ก่อนที่จะเผยแพร่จึงเป็นเรื่องสำคัญมาก

อคติทางสังคมและข้อมูล

AI ไม่ใช่มนุษย์ จึงไม่สามารถลำเอียงได้ใช่ไหม ผิด. ผู้คนและข้อมูลใช้เพื่อฝึกโมเดล AI และ แชทบอท ซึ่งหมายความว่าข้อมูลหรือบุคลิกภาพที่มีอคติจะส่งผลให้เกิด AI ที่มีอคติ อคติใน AI มีสองประเภท: อคติทางสังคมและอคติข้อมูล

เนื่องจากมีอคติมากมายในสังคมทั่วไป จะเกิดอะไรขึ้นเมื่ออคติเหล่านี้กลายเป็นส่วนหนึ่งของ AI โปรแกรมเมอร์ที่รับผิดชอบในการฝึกอบรมโมเดลอาจมีความคาดหวังที่ไม่แน่นอน ซึ่งจากนั้นจะเข้าสู่ระบบ AI.

หรือข้อมูลที่ใช้ในการฝึกอบรมและพัฒนา AI อาจไม่ถูกต้อง มีอคติ หรือรวบรวมโดยไม่สุจริต สิ่งนี้นำไปสู่อคติด้านข้อมูล ซึ่งอาจเป็นอันตรายได้พอๆ กับอคติทางสังคม ตัวอย่างเช่น หากระบบการจดจำใบหน้าได้รับการฝึกฝนโดยใช้ใบหน้าของคนผิวขาวเป็นหลัก ระบบอาจประสบปัญหาในการจดจำใบหน้าจากชนกลุ่มน้อย ซึ่งจะทำให้การกดขี่ดำเนินต่อไป

หุ่นยนต์เข้ามาแย่งงานของเรา

การพัฒนาแชทบอท เช่น ChatGPT และ Google Bard ได้เปิดประเด็นความกังวลใหม่เกี่ยวกับ AI: ความเสี่ยงที่ หุ่นยนต์ จะมาแย่งงานของเรา เราเห็นแล้วว่านักเขียนในอุตสาหกรรมเทคโนโลยีถูกแทนที่ด้วย AI นักพัฒนาซอฟต์แวร์กังวลว่าพวกเขาจะตกงานให้กับบอท และบริษัทต่างๆ ที่ใช้ ChatGPT เพื่อสร้างเนื้อหาบล็อกและเนื้อหาโซเชียลมีเดีย แทนที่จะจ้างนักเขียนที่เป็นมนุษย์

จากข้อมูลใน รายงานอนาคตของงานของ World Economic Forum ประจำปี 2020 คาดว่า AI จะมาแทนที่งาน 85 ล้านตำแหน่งทั่วโลกภายในปี 2025 แม้ว่า AI จะไม่มาแทนที่นักเขียน แต่ก็มีคนจำนวนมากใช้ AI เป็นเครื่องมืออยู่แล้ว ผู้ที่อยู่ในงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI อาจต้องปรับตัวเพื่อความอยู่รอด เช่น นักเขียนอาจกลายเป็นวิศวกรพร้อมท์ด้าน AI ทำให้พวกเขาทำงานกับเครื่องมืออย่าง ChatGPT เพื่อสร้างเนื้อหาได้ แทนที่จะถูกแทนที่ด้วยโมเดลเหล่านี้

ความเสี่ยง AI ที่อาจเกิดขึ้นในอนาคต

สิ่งเหล่านี้ล้วนเป็นความเสี่ยงที่เกิดขึ้นทันทีหรือใกล้จะเกิดขึ้น แต่อันตรายของ AI ที่มีโอกาสน้อยแต่ยังคงเป็นไปได้ที่เราอาจเห็นได้ในอนาคตล่ะ ซึ่งรวมถึงสิ่งต่างๆ เช่น โปรแกรม AI ที่จะทำร้ายมนุษย์ เช่น อาวุธอัตโนมัติที่ฝึกให้ฆ่าในช่วงสงคราม

จากนั้นก็มีความเสี่ยงที่ AI จะสามารถมุ่งความสนใจไปที่เป้าหมายที่ตั้งโปรแกรมไว้อย่างมุ่งมั่น โดยพัฒนาพฤติกรรมทำลายล้างในขณะที่พยายามบรรลุเป้าหมายนั้นโดยไม่เสียค่าใช้จ่ายใดๆ แม้ว่ามนุษย์จะพยายามหยุดไม่ให้สิ่งนี้เกิดขึ้นก็ตาม

Skynet สอนเราว่าจะเกิดอะไรขึ้นเมื่อ AI มีความรู้สึก อย่างไรก็ตาม แม้ว่า Blake Lemoine วิศวกรของ Google อาจพยายามโน้มน้าวทุกคนว่า LaMDA ซึ่งเป็นโปรแกรมสร้างแชทบอทอัจฉริยะเทียมของ Google นั้นมีความรู้สึก ย้อนกลับไปในเดือนมิถุนายน 2022 แต่ก็โชคดีที่ยังไม่มีหลักฐานใดที่บ่งชี้ว่าเป็นความจริง

ความท้าทายของกฎระเบียบ AI

ในวันจันทร์ที่ 15 พฤษภาคม 202 Sam Altman ซีอีโอของ OpenAI เข้าร่วมการพิจารณาของรัฐสภาครั้งแรกเกี่ยวกับปัญญาประดิษฐ์ เตือนว่า "หากเทคโนโลยีนี้ผิดพลาด มันก็อาจผิดพลาดได้เลยทีเดียว" OpenAI CO แสดงให้เห็นชัดเจนว่าเขาชอบกฎระเบียบและนำแนวคิดของเขาเองมากมายมารับฟัง ปัญหาคือ AI กำลังพัฒนาอย่างรวดเร็ว เป็นการยากที่จะทราบว่าจะเริ่มจากการควบคุมอย่างไร.

สภาคองเกรสต้องการหลีกเลี่ยงการทำผิดพลาดแบบเดิมๆ ที่เกิดขึ้นในช่วงต้นยุคโซเชียลมีเดีย และทีมผู้เชี่ยวชาญร่วมกับผู้นำเสียงข้างมากในวุฒิสภา Chuck Schumer กำลังทำงานเกี่ยวกับกฎระเบียบที่จะกำหนดให้บริษัทต่างๆ ต้องเปิดเผยแหล่งข้อมูลที่พวกเขาใช้ในการฝึกอบรม นางแบบและใครเป็นคนฝึกพวกเขา อาจต้องใช้เวลาสักพักกว่าที่ AI จะถูกควบคุมจะชัดเจน และไม่ต้องสงสัยเลยว่าบริษัท AI จะต้องตอบโต้กลับอย่างแน่นอน

ภัยคุกคามของปัญญาประดิษฐ์ทั่วไป

ยังมีความเสี่ยงในการสร้างปัญญาประดิษฐ์ทั่วไป (AGI) ที่สามารถบรรลุภารกิจใดๆ ที่มนุษย์ (หรือสัตว์) สามารถทำได้ บ่อยครั้งที่มีการกล่าวถึงในภาพยนตร์ไซไฟ เราอาจยังห่างไกลจากการสร้างสรรค์เช่นนี้มาหลายสิบปี แต่ถ้าเราสร้าง AGI ขึ้นมาเมื่อไหร่ ก็อาจเป็นภัยคุกคามต่อมนุษยชาติได้

บุคคลสาธารณะจำนวนมากสนับสนุนความเชื่อที่ว่า AI ก่อให้เกิดภัยคุกคามต่อมนุษย์ รวมถึง Stephen Hawking, Bill Gates และแม้แต่ Eric Schmidt อดีต CEO ของ Google ผู้ซึ่งกล่าวว่า "ปัญญาประดิษฐ์อาจก่อให้เกิดความเสี่ยงต่อการดำรงอยู่ และรัฐบาลจำเป็นต้องทราบวิธีการ เพื่อให้แน่ใจว่าเทคโนโลยีจะไม่ถูกนำไปใช้ในทางที่ผิดโดยคนชั่วร้าย”

ปัญญาประดิษฐ์เป็นอันตรายหรือไม่ และความเสี่ยงมีมากกว่าผลประโยชน์หรือไม่ คณะลูกขุนยังคงตัดสินเรื่องนั้น แต่ตอนนี้เราเห็นหลักฐานความเสี่ยงบางอย่างรอบตัวเราแล้ว อันตรายอื่นๆ ไม่น่าจะเกิดขึ้นได้ในเร็วๆ นี้ หากเป็นเช่นนั้น แต่มีสิ่งหนึ่งที่ชัดเจน: ไม่ควรมองข้ามอันตรายของ AI เป็นสิ่งสำคัญสูงสุดที่เราจะต้องมั่นใจว่า AI ได้รับการควบคุมอย่างเหมาะสมตั้งแต่เริ่มแรก เพื่อลดความเสี่ยงและหวังว่าจะลดความเสี่ยงในอนาคต

.

กระทู้ที่เกี่ยวข้อง:


31.05.2023