Pfizer's Edge ในการแข่งขันวัคซีน COVID-19: Data Science

Pfizer's Edge ในการแข่งขันวัคซีน COVID-19: Data Science

ปัญญาประดิษฐ์สามารถทำงานได้เร็วกว่า แม่นยำ เชื่อถือได้ และเป็นกลางกว่ามนุษย์ในปัญหาต่างๆ ตั้งแต่การตรวจหามะเร็งไปจนถึงการตัดสินใจว่าใครจะได้รับการสัมภาษณ์เพื่อหางาน แต่ AI ก็ประสบความล้มเหลวหลายครั้งเช่นกัน และการแพร่หลายมากขึ้นของ AI หมายความว่าความล้มเหลวอาจส่งผลกระทบไม่เฉพาะบุคคลเท่านั้น แต่รวมถึงผู้คนนับล้านด้วย ชุมชน AI กำลังจัดทำรายการความล้มเหลวเหล่านี้มากขึ้นเรื่อยๆ โดยมีเป้าหมายเพื่อติดตามความเสี่ยงที่อาจเกิดขึ้น Charlie Pownall ผู้ก่อตั้ง AI, Algorithmic and Automation Incident & Controversy Repository กล่าวว่า “ผู้ใช้มักมีข้อมูลน้อยมากที่จะเข้าใจว่าระบบเหล่านี้ทำงานอย่างไรและมีความหมายอย่างไรต่อพวกเขา “ฉันคิดว่าสิ่งนี้ส่งผลกระทบโดยตรงต่อความไว้วางใจและความเชื่อมั่นในระบบเหล่านี้ มีหลายสาเหตุที่เป็นไปได้ว่าทำไมองค์กรต่างๆ จึงไม่เต็มใจที่จะเข้าไปยุ่งเกี่ยวกับสิ่งที่เกิดขึ้นในเหตุการณ์ AI หรือการโต้เถียงกัน ไม่ใช่แค่การเปิดเผยทางกฎหมายที่อาจเกิดขึ้น หากมองผ่านเลนส์ของความน่าไว้วางใจ พวกเขาก็สนใจที่จะทำเช่นนั้น” ส่วนหนึ่งของปัญหาคือเทคโนโลยีโครงข่ายประสาทเทียมที่ขับเคลื่อนระบบ AI จำนวนมากสามารถพังทลายในรูปแบบที่ยังคงเป็นปริศนาสำหรับนักวิจัย Dan Hendrycks นักวิทยาศาสตร์คอมพิวเตอร์จาก University of California, Berkeley กล่าวว่า “เป็นเรื่องที่คาดเดาไม่ได้ว่าปัญญาประดิษฐ์จะเก่งในเรื่องใด เพราะเราไม่เข้าใจสติปัญญาในตัวเองเป็นอย่างดี ต่อไปนี้คือตัวอย่างความล้มเหลวของ AI เจ็ดตัวอย่างและจุดอ่อนในปัจจุบันที่พวกเขาเปิดเผยเกี่ยวกับปัญญาประดิษฐ์ นักวิทยาศาสตร์หารือถึงวิธีที่เป็นไปได้ในการจัดการกับปัญหาเหล่านี้ คนอื่น ๆ ในปัจจุบันขัดขืนคำอธิบายหรืออาจพูดเชิงปรัชญาขาดข้อสรุปใด ๆ เลย 1) ความเปราะบาง Chris Philpot ถ่ายรูปรถโรงเรียน พลิกให้นอนตะแคงเหมือนอาจพบได้ในกรณีที่เกิดอุบัติเหตุในโลกแห่งความเป็นจริง ผลการศึกษาในปี 2018 พบว่า AI ล้ำสมัยซึ่งปกติจะระบุรถโรงเรียนอย่างถูกต้องโดยให้ชิดขวาล้มเหลวในการทำเช่นนั้นโดยเฉลี่ย 97 เปอร์เซ็นต์ของเวลาเมื่อมีการหมุน “พวกเขาจะบอกว่ารถโรงเรียนเป็นรถไถหิมะที่มีความมั่นใจสูงมาก” นักวิทยาศาสตร์คอมพิวเตอร์ Anh Nguyen จากมหาวิทยาลัยออเบิร์นในแอละแบมากล่าว AIs ไม่มีความสามารถในการหมุนจิต “ที่แม้แต่ลูกชายวัย 3 ขวบของฉันก็สามารถทำได้” เขากล่าว ความล้มเหลวดังกล่าวเป็นตัวอย่างของความเปราะบาง AI มักจะ “รับรู้ได้เฉพาะรูปแบบที่เคยเห็นมาก่อนเท่านั้น” Nguyen กล่าว “ถ้าคุณแสดงรูปแบบใหม่ มันจะถูกหลอกง่าย” มีหลายกรณีที่หนักใจเกี่ยวกับความเปราะบางของ AI การติดสติกเกอร์บนป้ายหยุดอาจทำให้ AI อ่านผิด การเปลี่ยนพิกเซลเดียวบนรูปภาพทำให้ AI คิดว่าม้าเป็นกบ โครงข่ายประสาทเทียมสามารถมั่นใจได้ถึง 99.99 เปอร์เซ็นต์ว่าภาพนิ่งหลากสีคือภาพสิงโต ภาพทางการแพทย์สามารถแก้ไขในลักษณะที่มองไม่เห็นด้วยตาเปล่า ดังนั้นทางการแพทย์จึงสแกนวินิจฉัยมะเร็งผิดพลาดได้ 100 เปอร์เซ็นต์ของเวลาทั้งหมด และอื่นๆ. วิธีหนึ่งที่เป็นไปได้ในการทำให้ AI แข็งแกร่งยิ่งขึ้นต่อความล้มเหลวดังกล่าว คือการทำให้พวกเขาเห็นตัวอย่าง “ปฏิปักษ์” ที่น่าสับสนให้มากที่สุดเท่าที่จะเป็นไปได้ Hendrycks กล่าว อย่างไรก็ตาม พวกเขาอาจยังคงล้มเหลวกับเหตุการณ์ “หงส์ดำ” ที่หายาก “ปัญหาหงส์ดำ เช่น โควิด หรือภาวะเศรษฐกิจถดถอยนั้นยากที่แม้แต่มนุษย์จะจัดการ—ปัญหาเหล่านี้อาจไม่ใช่ปัญหาเฉพาะสำหรับการเรียนรู้ของเครื่องเท่านั้น” เขากล่าว 2) Embedded Bias Chris Philpot มีการใช้ AI เพื่อช่วยสนับสนุนการตัดสินใจที่สำคัญมากขึ้นเรื่อยๆ เช่น ผู้ที่ได้รับเงินกู้ ระยะเวลาในคุก และใครที่จะได้รับการดูแลสุขภาพก่อน ความหวังคือ AI สามารถตัดสินใจได้อย่างเป็นกลางมากกว่าที่ผู้คนมักมี แต่การวิจัยจำนวนมากพบว่าอคติที่ฝังอยู่ในข้อมูลที่ AI เหล่านี้ได้รับการฝึกอบรมอาจส่งผลให้เกิดการเลือกปฏิบัติโดยอัตโนมัติในวงกว้าง ก่อให้เกิดความเสี่ยงอย่างใหญ่หลวงต่อสังคม ตัวอย่างเช่น ในปี 2019 นักวิทยาศาสตร์พบว่าอัลกอริธึมการดูแลสุขภาพที่ใช้ในประเทศสหรัฐอเมริกามีอคติทางเชื้อชาติ ซึ่งส่งผลกระทบต่อชาวอเมริกันหลายล้านคน AI ได้รับการออกแบบมาเพื่อระบุว่าผู้ป่วยรายใดจะได้รับประโยชน์สูงสุดจากโปรแกรมการดูแลผู้ป่วยหนัก แต่ได้ลงทะเบียนผู้ป่วยผิวขาวที่มีสุขภาพดีขึ้นในโครงการดังกล่าวเป็นประจำก่อนผู้ป่วยผิวดำที่ป่วยมากกว่า แพทย์และนักวิจัย Ziad Obermeyer จาก University of California, Berkeley และเพื่อนร่วมงานของเขาพบว่าอัลกอริธึมนี้เข้าใจผิดคิดว่าคนที่มีค่ารักษาพยาบาลสูงก็เป็นผู้ป่วยที่ป่วยที่สุดและต้องการการดูแลมากที่สุด อย่างไรก็ตาม เนื่องจากการเหยียดเชื้อชาติอย่างเป็นระบบ “ผู้ป่วยผิวดำมีโอกาสน้อยที่จะได้รับการดูแลสุขภาพเมื่อพวกเขาต้องการ ดังนั้นจึงมีโอกาสน้อยที่จะสร้างค่าใช้จ่าย” เขาอธิบาย หลังจากทำงานร่วมกับผู้พัฒนาซอฟต์แวร์แล้ว Obermeyer และเพื่อนร่วมงานของเขาได้ช่วยออกแบบอัลกอริทึมใหม่ที่วิเคราะห์ตัวแปรอื่นๆ และแสดงความลำเอียงน้อยลง 84 เปอร์เซ็นต์ “มันเป็นงานมากขึ้น แต่การคำนึงถึงอคติไม่ได้เป็นไปไม่ได้เลย” เขากล่าว เมื่อเร็ว ๆ นี้พวกเขาได้ร่างคู่มือแนวทางปฏิบัติที่สรุปขั้นตอนพื้นฐานบางประการที่รัฐบาล ธุรกิจ และกลุ่มอื่นๆ สามารถนำไปใช้เพื่อตรวจจับและป้องกันอคติในซอฟต์แวร์ที่มีอยู่และในอนาคตที่พวกเขาใช้ ซึ่งรวมถึงการระบุอัลกอริธึมทั้งหมดที่พวกเขาใช้ การทำความเข้าใจเป้าหมายในอุดมคติของซอฟต์แวร์นี้และประสิทธิภาพการทำงานไปสู่เป้าหมายนั้น การฝึกอบรม AI ใหม่หากจำเป็น และการสร้างหน่วยงานกำกับดูแลระดับสูง 3) Catastrophic forgetting Chris Philpot Deepfakes—รูปภาพและวิดีโอปลอมที่สร้างขึ้นอย่างสมจริงอย่างมาก ซึ่งมักเป็นคนดัง นักการเมือง และบุคคลสาธารณะอื่นๆ—กำลังกลายเป็นเรื่องธรรมดามากขึ้นเรื่อยๆ บนอินเทอร์เน็ตและโซเชียลมีเดีย และอาจสร้างความหายนะมากมายด้วยการแสดงภาพคนพูดฉ้อโกง หรือทำในสิ่งที่ไม่เคยเกิดขึ้นจริง ในการพัฒนา AI ที่สามารถตรวจจับ Deepfakes ได้ นักวิทยาศาสตร์คอมพิวเตอร์ Shahroz Tariq และเพื่อนร่วมงานของเขาที่มหาวิทยาลัย Sungkyunkwan ในเกาหลีใต้ ได้สร้างเว็บไซต์ที่ผู้คนสามารถอัปโหลดภาพเพื่อตรวจสอบความถูกต้องได้ ในตอนเริ่มต้น นักวิจัยได้ฝึกโครงข่ายประสาทเทียมเพื่อตรวจหา Deepfake ชนิดหนึ่ง อย่างไรก็ตาม หลังจากผ่านไปสองสามเดือน Deepfake ประเภทใหม่ก็ปรากฏขึ้น และเมื่อพวกเขาฝึก AI ให้ระบุ Deepfake สายพันธุ์ใหม่เหล่านี้ มันก็ลืมไปอย่างรวดเร็วว่าจะตรวจจับของเก่าได้อย่างไร นี่เป็นตัวอย่างหนึ่งของความหายนะของการลืม—แนวโน้มของ AI ที่จะลืมข้อมูลที่มันเคยรู้ก่อนหน้านี้ทั้งหมดและทันทีทันใดหลังจากเรียนรู้ข้อมูลใหม่ โดยพื้นฐานแล้วจะเขียนทับความรู้ในอดีตด้วยความรู้ใหม่ “โครงข่ายประสาทเทียมมีความจำที่แย่มาก” ทาริคกล่าว นักวิจัย AI กำลังดำเนินกลยุทธ์ที่หลากหลายเพื่อป้องกันไม่ให้เกิดความหายนะในการลืม เพื่อให้โครงข่ายประสาทเทียมสามารถเรียนรู้อย่างต่อเนื่องได้อย่างง่ายดายอย่างที่มนุษย์ดูเหมือนทำ เทคนิคง่ายๆ คือการสร้างโครงข่ายประสาทเฉพาะสำหรับงานใหม่แต่ละงานที่ต้องการทำ เช่น แยกแยะแมวจากสุนัขหรือแอปเปิ้ลจากส้ม—”แต่เห็นได้ชัดว่าไม่สามารถปรับขนาดได้ เนื่องจากจำนวนเครือข่ายเพิ่มขึ้นตามจำนวนงานเป็นเส้นตรง Sam Kessler นักวิจัยด้านแมชชีนเลิร์นนิงแห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดในอังกฤษกล่าว ทางเลือกหนึ่ง Tariq และเพื่อนร่วมงานของเขาได้สำรวจในขณะที่พวกเขาฝึก AI เพื่อค้นหา Deepfakes ประเภทใหม่ ๆ คือการจัดหาข้อมูลจำนวนเล็กน้อยเกี่ยวกับวิธีการระบุประเภทที่เก่ากว่าเพื่อไม่ให้ลืมวิธีการตรวจจับ โดยพื้นฐานแล้วมันเหมือนกับการทบทวนบทสรุปของตำราเรียนก่อนสอบ Tariq กล่าว อย่างไรก็ตาม AI อาจไม่สามารถเข้าถึงความรู้ในอดีตได้เสมอไป ตัวอย่างเช่น เมื่อต้องจัดการกับข้อมูลส่วนตัว เช่น เวชระเบียน Tariq และเพื่อนร่วมงานของเขากำลังพยายามป้องกันไม่ให้ AI อาศัยข้อมูลจากงานก่อนหน้า พวกเขาได้ฝึกฝนตัวเองถึงวิธีการระบุประเภท Deepfake ใหม่ในขณะที่เรียนรู้จาก AI อื่นที่เคยฝึกวิธีจดจำ Deepfake ที่เก่ากว่า พวกเขาพบว่ากลยุทธ์ “การกลั่นกรองความรู้” นี้มีความแม่นยำประมาณ 87 เปอร์เซ็นต์ในการตรวจจับประเภทของ Deepfakes คุณภาพต่ำที่มักแชร์บนโซเชียลมีเดีย 4) ความสามารถในการอธิบาย Chris Philpot เหตุใด AI จึงสงสัยว่าบุคคลอาจเป็นอาชญากรหรือเป็นมะเร็ง คำอธิบายสำหรับเรื่องนี้และการคาดการณ์อื่นๆ ที่มีเดิมพันสูงอาจมีผลทางกฎหมาย ทางการแพทย์ และอื่นๆ มากมาย วิธีการที่ AI บรรลุข้อสรุปนั้นถือเป็นกล่องดำลึกลับมาช้านาน นำไปสู่ความพยายามมากมายที่จะคิดค้นวิธีการอธิบายการทำงานภายในของ AI “อย่างไรก็ตาม งานล่าสุดของฉันชี้ให้เห็นถึงความสามารถในการอธิบายได้ค่อนข้างติดขัด” เหงียนจากออเบิร์นกล่าว เหงียนและเพื่อนร่วมงานได้ตรวจสอบเจ็ดเทคนิคที่แตกต่างกันซึ่งนักวิจัยได้พัฒนาขึ้นเพื่ออธิบายคำอธิบายสำหรับการตัดสินใจของ AI ตัวอย่างเช่น อะไรทำให้ภาพของไม้ขีดไฟเป็นไม้ขีดไฟ มันคือเปลวไฟหรือแท่งไม้? พวกเขาค้นพบว่าวิธีการเหล่านี้ “ค่อนข้างไม่เสถียร” เหงียนกล่าว “พวกเขาสามารถให้คำอธิบายที่แตกต่างกันได้ทุกครั้ง” นอกจากนี้ แม้ว่าวิธีการระบุแหล่งที่มาแบบหนึ่งอาจใช้ได้กับเครือข่ายประสาทชุดหนึ่ง แต่ “อาจล้มเหลวโดยสิ้นเชิงในอีกชุดหนึ่ง” เหงียนกล่าวเสริม อนาคตของการอธิบายได้อาจเกี่ยวข้องกับการสร้างฐานข้อมูลของคำอธิบายที่ถูกต้อง เหงียนกล่าว วิธีการระบุแหล่งที่มาสามารถไปที่ฐานความรู้ดังกล่าว “และค้นหาข้อเท็จจริงที่อาจอธิบายการตัดสินใจได้” เขากล่าว 5) การหาปริมาณความไม่แน่นอน Chris Philpot ในปี 2559 รถเทสลารุ่น S บนระบบขับเคลื่อนอัตโนมัติชนกับรถบรรทุกที่เลี้ยวซ้ายด้านหน้าในฟลอริดาตอนเหนือ ทำให้คนขับเสียชีวิต ซึ่งเป็นรายงานการเสียชีวิตครั้งแรกของระบบขับเคลื่อนอัตโนมัติ ตามบล็อกอย่างเป็นทางการของ Tesla ทั้งระบบขับเคลื่อนอัตโนมัติและคนขับ “ไม่ได้สังเกตเห็นด้านสีขาวของรถพ่วงรถแทรกเตอร์กับท้องฟ้าที่มีแสงสว่างจ้า เบรกจึงไม่ได้ใช้” วิธีหนึ่งที่เป็นไปได้ที่ Tesla, Uber และบริษัทอื่นๆ อาจหลีกเลี่ยงภัยพิบัติดังกล่าวได้ก็คือ ให้รถยนต์ของพวกเขาทำงานได้ดีขึ้นในการคำนวณและจัดการกับความไม่แน่นอน ปัจจุบัน AIs “สามารถมั่นใจได้มากแม้ว่าจะผิดมาก” เคสเลอร์จากอ็อกซ์ฟอร์ดกล่าวว่าหากอัลกอริทึมทำการตัดสินใจ “เราควรมีความคิดที่แข็งแกร่งว่าการตัดสินใจนั้นมั่นใจเพียงใดโดยเฉพาะอย่างยิ่งสำหรับการวินิจฉัยทางการแพทย์หรือ รถขับเอง ถ้าไม่แน่ใจมาก มนุษย์ก็เข้าแทรกแซงได้ คำตัดสินหรือการประเมินสถานการณ์ของตัวเอง” ตัวอย่างเช่น นักวิทยาศาสตร์คอมพิวเตอร์ Moloud Abdar จาก Deakin University ในออสเตรเลียและเพื่อนร่วมงานของเขาใช้เทคนิคการหาปริมาณความไม่แน่นอนที่แตกต่างกันหลายอย่างเป็น AI จำแนกภาพมะเร็งผิวหนังเป็นมะเร็งหรือไม่เป็นพิษเป็นภัยหรือเนื้องอกหรือไม่ นักวิจัย พบว่าวิธีการเหล่านี้ช่วยป้องกันไม่ให้ AI ทำการวินิจฉัยที่มั่นใจมากเกินไป Abdar กล่าวว่ายานยนต์อัตโนมัติยังคงท้าทายสำหรับการหาปริมาณที่ไม่แน่นอนเนื่องจากเทคนิคการหาปริมาณความไม่แน่นอนในปัจจุบันมักใช้เวลาค่อนข้างนาน แนวทางที่เร็วขึ้น” 6) สามัญสำนึก Chris Philpot AIs ขาดสามัญสำนึก—ความสามารถในการบรรลุข้อสรุปที่ยอมรับได้และมีเหตุผลตามบริบทที่กว้างใหญ่ของความรู้ในชีวิตประจำวันที่ผู้คนมักมองข้ามไป นักวิทยาศาสตร์คอมพิวเตอร์ Xiang Ren จากมหาวิทยาลัยเซาเทิร์นแคลิฟอร์เนียกล่าว “ถ้าคุณไม่ใส่ใจกับสิ่งที่โมเดลเหล่านี้เรียนรู้จริงๆ มากนัก พวกเขาสามารถเรียนรู้ทางลัดได้ ที่ทำให้พวกเขาประพฤติตัวไม่ดี” เขากล่าว ตัวอย่างเช่น นักวิทยาศาสตร์อาจฝึก AIs ให้ตรวจจับคำพูดแสดงความเกลียดชังในข้อมูลที่คำพูดดังกล่าวสูงผิดปกติ เช่น ฟอรัมสีขาว supremacist อย่างไรก็ตาม เมื่อซอฟต์แวร์นี้ถูกเปิดเผยสู่โลกแห่งความเป็นจริง เราอาจมองข้ามไปว่าคนผิวดำและเกย์อาจใช้คำว่า “ดำ” และ “เกย์” บ่อยกว่ากลุ่มอื่นตามลำดับ “แม้ว่าโพสต์จะอ้างอิงบทความข่าวที่กล่าวถึงชาวยิว คนผิวดำ หรือเกย์โดยไม่มีความรู้สึกพิเศษใด ๆ ก็ตาม มันอาจถูกจัดประเภทผิดว่าเป็นคำพูดแสดงความเกลียดชัง” Ren กล่าว ในทางตรงกันข้าม “คนที่อ่านทั้งประโยคสามารถรับรู้ได้เมื่อใช้คำคุณศัพท์ในบริบทที่แสดงความเกลียดชัง” การวิจัยก่อนหน้านี้ชี้ให้เห็นว่า AI ที่ล้ำสมัยสามารถทำการอนุมานเชิงตรรกะเกี่ยวกับโลกได้อย่างแม่นยำถึง 90 เปอร์เซ็นต์ ซึ่งบ่งชี้ว่าพวกเขากำลังก้าวหน้าในการบรรลุสามัญสำนึก อย่างไรก็ตาม เมื่อ Ren และเพื่อนร่วมงานของเขาทดสอบโมเดลเหล่านี้ พวกเขาพบว่าแม้แต่ AI ที่ดีที่สุดก็สามารถสร้างประโยคที่เชื่อมโยงกันทางตรรกะได้โดยมีความแม่นยำน้อยกว่า 32 เปอร์เซ็นต์เล็กน้อย เมื่อพูดถึงการพัฒนาสามัญสำนึก “สิ่งหนึ่งที่เราให้ความสำคัญมาก [about] ในปัจจุบันในชุมชน AI คือการใช้รายการตรวจสอบที่ครอบคลุมมากขึ้นเพื่อดูพฤติกรรมของแบบจำลองในหลายมิติ” เขากล่าว 7) คณิตศาสตร์ Chris Philpot แม้ว่าคอมพิวเตอร์ทั่วไปจะเก่งเรื่องตัวเลข แต่ AI ก็ “ไม่เก่งคณิตศาสตร์เลย” Hendrycks จาก Berkeley กล่าว “คุณอาจมีรุ่นใหม่ล่าสุดและดีที่สุดที่ต้องใช้ GPU หลายร้อยตัวในการฝึก และพวกมันก็ยังไม่น่าเชื่อถือเท่ากับเครื่องคิดเลขพกพา” ตัวอย่างเช่น Hendrycks และเพื่อนร่วมงานของเขาได้ฝึก AI เกี่ยวกับปัญหาคณิตศาสตร์หลายแสนรายการด้วยวิธีแก้ปัญหาทีละขั้นตอน อย่างไรก็ตาม เมื่อทดสอบ 12,500 ปัญหาจากการแข่งขันคณิตศาสตร์ระดับมัธยมศึกษาตอนปลาย “มีความแม่นยำเพียง 5 เปอร์เซ็นต์เท่านั้น” เขากล่าว ในการเปรียบเทียบ ผู้ชนะเลิศเหรียญทองโอลิมปิกคณิตศาสตร์นานาชาติสามครั้งประสบความสำเร็จ 90 เปอร์เซ็นต์จากปัญหาดังกล่าว “โดยไม่มีเครื่องคิดเลข “เขากล่าวเสริม โครงข่ายประสาทในปัจจุบันสามารถเรียนรู้ที่จะแก้ปัญหาได้เกือบทุกประเภท” ถ้าคุณให้ข้อมูลเพียงพอและทรัพยากรเพียงพอ แต่ไม่ใช่คณิตศาสตร์ ” Hendrycks กล่าว ปัญหามากมายในด้านวิทยาศาสตร์ต้องใช้คณิตศาสตร์เป็นจำนวนมาก ดังนั้น จุดอ่อนในปัจจุบันนี้ ของ AI สามารถจำกัดการประยุกต์ใช้ในการวิจัยทางวิทยาศาสตร์ เขายังไม่แน่ใจว่าทำไม AI ถึงไม่ดีในวิชาคณิตศาสตร์ ความเป็นไปได้ประการหนึ่งคือโครงข่ายประสาทโจมตีปัญหาในลักษณะคู่ขนานสูงเช่นสมองของมนุษย์ในขณะที่ปัญหาทางคณิตศาสตร์มักต้องใช้ชุดยาวของ ดังนั้นบางทีวิธีที่ AI ประมวลผลข้อมูลอาจไม่เหมาะกับงานดังกล่าว “ในลักษณะเดียวกับที่มนุษย์โดยทั่วไปไม่สามารถคำนวณขนาดใหญ่ในหัวได้” Hendrycks กล่าว อย่างไรก็ตาม ประสิทธิภาพทางคณิตศาสตร์ของ AI นั้นแย่ “คือ ยังคงเป็นหัวข้อเฉพาะ: ยังไม่มีการดึงปัญหามากนัก” เขากล่าวเสริม

Leave a comment

Your email address will not be published. Required fields are marked *