Data science

Apple สามารถสิทธิความเป็นส่วนตัวและความปลอดภัยของรถเข็นได้หรือไม่

เป็นเวลาหลายปีที่ Apple ได้รับการยกย่องว่าเป็นบริษัทที่ “ได้รับ” ความปลอดภัยและความเป็นส่วนตัว ท้ายที่สุด มันอนุญาตให้ผู้ใช้มีส่วนร่วมในการสนทนาที่ได้รับการคุ้มครองโดยการเข้ารหัส ตั้งแต่ต้นทางถึงปลายทาง และปฏิเสธคำขอของรัฐบาลสหรัฐฯ เพื่อปลดล็อก iPhone ของผู้ก่อการร้ายในประเทศ อย่างไรก็ตาม แผนใหม่ของ Apple ในการใช้เทคนิคแมชชีนเลิร์นนิงเพื่อค้นหาเนื้อหาที่ผิดกฎหมายของ iPhone ทำให้เกิดคำถามเกี่ยวกับความมุ่งมั่นในระยะยาวของบริษัทต่อความเป็นส่วนตัวและความปลอดภัยของแต่ละบุคคล การเปลี่ยนแปลงที่ Apple ประกาศเมื่อวันที่ 5 สิงหาคม ได้รับการออกแบบมาเพื่อป้องกันการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) เมื่อผู้ใช้พยายามอัปโหลดรูปภาพไปยัง iCloud ระบบปฏิบัติการ iOS จะเรียกใช้อัลกอริธึมการเรียนรู้ของเครื่องที่พิจารณาว่าตรงกับแฮชของรูปภาพใดๆ ที่บันทึกไว้ในฐานข้อมูล CSAM หรือไม่ ซึ่งสำเนาจะถูกเก็บไว้ในอุปกรณ์ของผู้ใช้ ในกรณีที่ภาพตรงกับฐานข้อมูล CSAM รัฐบาลจะได้รับแจ้งโดยอัตโนมัติ ในการประกาศ Apple กล่าวว่าได้พัฒนาวิธีการ “โดยคำนึงถึงความเป็นส่วนตัวของผู้ใช้ แทนที่จะสแกนภาพในคลาวด์” Apple กล่าว “ระบบทำการจับคู่บนอุปกรณ์โดยใช้ฐานข้อมูลของแฮชรูปภาพ CSAM ที่รู้จักซึ่งจัดทำโดย NCMEC และองค์กรความปลอดภัยเด็กอื่นๆ Apple แปลงฐานข้อมูลนี้เป็นชุดแฮชที่อ่านไม่ได้ซึ่งจัดเก็บไว้อย่างปลอดภัยในอุปกรณ์ของผู้ใช้ “ก่อนที่รูปภาพจะถูกเก็บไว้ในรูปภาพ iCloud” บริษัทกล่าวต่อ “กระบวนการจับคู่ในอุปกรณ์จะดำเนินการกับรูปภาพนั้นเทียบกับแฮช CSAM ที่รู้จัก กระบวนการจับคู่นี้ขับเคลื่อนโดยเทคโนโลยีการเข้ารหัสที่เรียกว่าแยกชุดส่วนตัว ซึ่งจะกำหนดว่ามีการจับคู่โดยไม่เปิดเผยผลลัพธ์หรือไม่ อุปกรณ์สร้างบัตรกำนัลความปลอดภัยการเข้ารหัสที่เข้ารหัสผลการแข่งขันพร้อมกับข้อมูลที่เข้ารหัสเพิ่มเติมเกี่ยวกับภาพ” นอกจากนี้ยังมีการประกาศระบบที่สองที่ตรวจจับภาพที่ “มีความโจ่งแจ้งทางเพศ” ที่ส่งผ่าน iMessages ในกรณีที่มีการส่งภาพทางเพศที่โจ่งแจ้งผ่าน iMessages โทรศัพท์ที่รับจะเบลอภาพและแจ้งเตือนให้เด็กถามพวกเขาว่าต้องการดูภาพที่ไม่เบลอจริงๆ หรือไม่ หากเด็กตอบว่าใช่ ผู้ปกครองของเด็กอาจได้รับการแจ้งเตือน นอกจากนี้ยังประกาศการเปลี่ยนแปลงใน Siri และการค้นหา การอัปเดตเหล่านี้มีกำหนดจะเปิดตัวในปลายปีนี้กับ iCloud สำหรับ iOS 15, iPadOS 15 และ macOS เนยแข็งแอปเปิ้ลกล่าวว่า ความโกลาหลจากผู้สนับสนุนความเป็นส่วนตัวและความปลอดภัยเกิดขึ้นทันที และมันก็ดังมาก สถาปัตยกรรม CSAM ของ Apple (จาก “Expanded Protections for Children Technology Summary) ของ Apple”) “Apple สามารถอธิบายได้ในระยะเวลาอันสั้นว่าการใช้งานทางเทคนิคจะรักษาความเป็นส่วนตัวและความปลอดภัยในแบ็คดอร์ที่เสนอได้อย่างไร แต่ในท้ายที่สุด แม้จะมีการจัดทำเป็นเอกสารอย่างถี่ถ้วนและมีการไตร่ตรองอย่างรอบคอบ แบ็คดอร์ที่มีขอบเขตจำกัดก็ยังเป็นแบ็คดอร์” ผู้อำนวยการมูลนิธิ Electronic Frontier Foundation แห่ง Federal Affairs India McKinney และ Erica Portnoy นักเทคโนโลยีอาวุโสในบล็อกของ Electronic Frontier Foundation เขียน “การประนีประนอมของ Apple ในการเข้ารหัสแบบ end-to-end อาจทำให้หน่วยงานของรัฐในสหรัฐอเมริกาและต่างประเทศพอใจ” พวกเขากล่าวต่อ “แต่เป็นเรื่องที่น่าตกใจสำหรับผู้ใช้ที่พึ่งพาความเป็นผู้นำของบริษัทในด้านความเป็นส่วนตัวและความปลอดภัย” Jonathan Mayer และ Anunay Kulshrestha นักวิชาการสองคนของ Princeton ที่สร้างระบบที่คล้ายกับของ Apple ก็มีปัญหากับแนวทางการสอดแนมของ Apple ด้วยเช่นกัน “เราเขียนสิ่งพิมพ์ที่ผ่านการตรวจสอบโดยเพื่อนเพียงฉบับเดียวเกี่ยวกับวิธีการสร้างระบบเหมือนของ Apple – และเราสรุปได้ว่าเทคโนโลยีเป็นอันตราย” Mayer และ Kulshrestha เขียนในเดือนสิงหาคม 19 Washington Post ความเห็น. “เราพยายามค้นหาจุดกลางที่เป็นไปได้ ซึ่งบริการออนไลน์สามารถระบุเนื้อหาที่เป็นอันตรายได้ ในขณะที่รักษาการเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง” นักวิจัยเขียน “แนวคิดตรงไปตรงมา: หากมีคนแบ่งปันเนื้อหาที่ตรงกับฐานข้อมูลของเนื้อหาที่เป็นอันตรายที่รู้จัก บริการจะได้รับการแจ้งเตือน” “แต่เราพบปัญหาที่เห็นได้ชัด” พวกเขากล่าวต่อ “ระบบของเราสามารถนำไปใช้ใหม่เพื่อการเฝ้าระวังและเซ็นเซอร์ได้อย่างง่ายดาย การออกแบบไม่ได้จำกัดเฉพาะเนื้อหาบางหมวดหมู่ บริการสามารถสลับในฐานข้อมูลที่ตรงกับเนื้อหาใด ๆ และบุคคลที่ใช้บริการนั้นจะไม่มีใครฉลาดกว่า” จะไม่มีอะไรหยุดหน่วยงานของรัฐ เช่น สาธารณรัฐประชาชนจีน จากการใช้แบ็คดอร์ของ Apple ไปจนถึงวิธีการของตนเอง “อะไรจะหยุดรัฐบาลจีนจากการเรียกร้องให้ Apple สแกนอุปกรณ์เหล่านั้นเพื่อหาสื่อที่สนับสนุนประชาธิปไตย” พวกเขาถาม “ไม่มีอะไรแน่นอน ยกเว้นคำมั่นสัญญาของ Apple” ในเดือนสิงหาคม 19 กลุ่มพันธมิตรขององค์กรต่างๆ มากกว่า 15 รวมถึง EFF ศูนย์ประชาธิปไตยและเทคโนโลยี และ ACLU เขียนจดหมายถึง Tim Cook CEO ของ Apple เพื่อขอให้เขาพิจารณาคุณสมบัติใหม่ “แม้ว่าความสามารถเหล่านี้มีจุดมุ่งหมายเพื่อปกป้องเด็กและลดการแพร่กระจายของเนื้อหาการล่วงละเมิดทางเพศเด็ก เรากังวลว่าพวกเขาจะถูกนำมาใช้ในการตรวจสอบคำพูดที่ได้รับการคุ้มครอง คุกคามความเป็นส่วนตัวและความปลอดภัยของผู้คนทั่วโลก และส่งผลร้ายแรงต่อหลาย ๆ คน เด็ก ๆ” ทั้งสองกลุ่มเขียนไว้ในจดหมาย “เราขอเรียกร้องให้ Apple ละทิ้งการเปลี่ยนแปลงเหล่านั้นและยืนยันความมุ่งมั่นของบริษัทในการปกป้องผู้ใช้ด้วยการเข้ารหัสจากต้นทางถึงปลายทาง” Apple อ้างว่าวิธีการแยกส่วนแบบส่วนตัวจะกำหนดเกณฑ์ที่เข้มงวดเพื่อป้องกันการถอดรหัสเนื้อหาที่ถูกต้องโดยไม่ได้ตั้งใจ (จาก “การคุ้มครองแบบขยายสำหรับสรุปเทคโนโลยีสำหรับเด็กของ Apple”) บริษัทเทคโนโลยีไม่มีภาระผูกพันในการโฮสต์เนื้อหาที่ผิดกฎหมายบนเซิร์ฟเวอร์ของตน แต่ระบบการเฝ้าระวังใหม่ของ Apple นั้นเหนือกว่านั้น Edward Snowden อดีตผู้รับเหมา NSA ที่ถูกเนรเทศซึ่งส่งเสียงนกหวีดใส่เครื่องมือสอดแนมขนาดใหญ่ของรัฐบาลกลางกล่าว “งานที่ Apple ตั้งใจให้ระบบเฝ้าระวังใหม่ดำเนินการ – ป้องกันไม่ให้ระบบคลาวด์ของพวกเขาถูกใช้เพื่อจัดเก็บของเถื่อนทางดิจิทัล ในกรณีนี้ รูปภาพที่ผิดกฎหมายที่ลูกค้าอัปโหลด – มักจะดำเนินการโดยการค้นหาระบบของพวกเขา” Snowden เขียนบนบล็อกของเขาเมื่อวานนี้ “ในขณะที่ยังคงมีปัญหาสำหรับทุกคนในการค้นหาไฟล์ส่วนตัวของผู้คนนับพันล้าน การที่พวกเขาสามารถเห็นเฉพาะไฟล์ที่คุณให้ไว้นั้นเป็นข้อจำกัดที่สำคัญ “อย่างไรก็ตาม ตอนนี้ ทุกอย่างพร้อมแล้วที่จะเปลี่ยนแปลง” สโนว์เดนกล่าวต่อ “ภายใต้การออกแบบใหม่ โทรศัพท์ของคุณจะทำการค้นหาเหล่านี้ในนามของ Apple ก่อนที่รูปภาพของคุณจะไปถึงเซิร์ฟเวอร์ iCloud ของพวกเขา และ—yada, yada, yada—หากพบ 'เนื้อหาต้องห้าม' เพียงพอ จะมีการแจ้งการบังคับใช้กฎหมาย ” เส้นแบ่งข้อมูลที่จัดเก็บไว้ในระบบคลาวด์กับข้อมูลที่จัดเก็บไว้ในอุปกรณ์ของแต่ละคนมีความพร่ามัวอยู่พักหนึ่ง ด้วยความพร้อมสำหรับการสตรีมเนื้อหาและการเชื่อมต่อไร้สายที่รวดเร็ว ผู้ใช้จำนวนมากจึงเป็นเนื้อหาที่ช่วยให้ผู้ให้บริการเนื้อหาสามารถสตรีมเพลง วิดีโอ รายการทีวี และภาพยนตร์ได้ ในขณะที่ Apple มีเป้าหมายอันสูงส่งในใจกับ CSAM ใหม่ ความแตกต่างระหว่างสิทธิ์และความรับผิดชอบของแต่ละบุคคลกับสิทธิ์และความรับผิดชอบของบริษัทเทคโนโลยีระดับโลกและผู้ดำเนินการของรัฐกำลังเบาบางลง “ทั้งบริษัทเอกชนและรัฐบาลไม่ควรค้นหาของใช้ส่วนตัวโดยไม่ปฏิบัติตามขั้นตอนของกฎหมาย ซึ่งห้ามไม่ให้มีการค้นหาที่น่าสงสัยซึ่งตอนนี้ Apple ตั้งใจที่จะดำเนินการ” Tim Sweeney ซีอีโอของ Epic Games ผู้ผลิตวิดีโอเกมซึ่งกำลังฟ้องร้อง Apple อยู่ ทวีต ในศาลรัฐบาลกลางเกี่ยวกับการปฏิบัติที่ไม่เป็นธรรมที่ถูกกล่าวหาใน App Store “รัฐบาลต้องการความสามารถในการค้นหานี้ แต่หลายประเทศ รวมถึงอเมริกา ถูกห้ามโดยรัฐธรรมนูญ บางที Apple อาจคิดว่าหากพวกเขาให้ของขวัญการเฝ้าระวังจำนวนมากแก่รัฐบาลในช่วงเวลาวิกฤตินี้ หน่วยงานกำกับดูแลจะมองไปทางอื่นเกี่ยวกับการละเมิดการต่อต้านการผูกขาดของพวกเขา” Sweeney กล่าวบน Twitter “ความกลัวของฉันคือสิ่งที่ Apple พยายามปกปิดในท้ายที่สุดไม่ใช่ iPhone ของเรา แต่เป็นประชาธิปไตยและหลักนิติธรรม” รายการที่เกี่ยวข้อง: จีนผ่านกฎหมายความเป็นส่วนตัวของข้อมูลใหม่ที่เข้มงวด ความเป็นส่วนตัวของข้อมูลใน Crosshairs Apple ใส่ 'Neural Engine' ใน iPhone

  • บ้าน
  • ธุรกิจ
  • วิทยาศาสตร์ข้อมูล
  • การตลาดดิจิทัล

  • ตลาดการค้า
  • Leave a Reply

    Your email address will not be published. Required fields are marked *

    Back to top button