Data science

#MindControl: Google Glass กลายเป็น BCI

นับตั้งแต่เริ่มก่อตั้ง Google Glass ได้แสดงให้เห็นถึงศักยภาพในการนำเสนอแอพพลิเคชั่นที่หลากหลายในด้านเทคโนโลยี Brain-Computer-Interface (BCI) และกำลังจะก้าวไปอีกขั้น ตามรายงานที่ Neurogadget ทีมงานของ Brainlab ของ Kennesaw State University ได้พัฒนาต้นแบบที่จะให้ผู้ใช้ Glass สามารถโต้ตอบกับและสั่งงาน Google Glass โดยใช้การตอบสนองของสมองที่แสดงออกมา แทนที่จะใช้การปัด พยักหน้า หรือคำสั่งเสียง Adriane Randolph กรรมการบริหารของ BrainLab กล่าวว่าแม้ว่าอุปกรณ์จะจับคลื่นสมองและส่งข้อเสนอแนะไปยัง Google Glass แต่ก็แตกต่างจากระบบ BCI ที่คล้ายกัน เพราะแทนที่จะอ่านข้อมูลจากคลื่นสมองต่อเนื่อง (เช่น คลื่นอัลฟ่า) BrainLab จะจับและอ่านสมอง การตอบสนองที่เรียกว่า P300 ทำให้ผู้ใช้สามารถควบคุมได้มากขึ้น How P300 ทำงานอย่างไร AP300 คือการตอบสนองของสมองที่เป็นผลโดยตรงจากการตัดสินใจ และเกิดขึ้นตาม ปฏิกิริยาต่อสิ่งเร้า ในระบบ BCI ของ BrainLab ผู้ใช้จะแสดงสตริงของอักขระ ซึ่งจะกะพริบในรูปแบบสุ่ม เขาหรือเธอต้องเลือกและให้ความสำคัญกับสิ่งใดสิ่งหนึ่งเป็นพิเศษ เมื่ออักขระที่เลือกกะพริบ การตอบสนองของระบบประสาท P300 ของผู้ใช้จะเริ่มใน 300 มิลลิวินาทีหลังจากเห็นสัญลักษณ์ที่เลือก การตอบสนองจะถูกส่งไปยังคอมพิวเตอร์และเชื่อมโยงกับคำสั่งที่เหมาะสม เทคโนโลยี BrainLab นำ Google Glass ไปสู่อีกระดับ โดยมอบโอกาสให้กับผู้ที่ตกเป็นเหยื่อของ Locked-in Syndrome (LIS) ซึ่งเป็นภาวะที่ผู้ป่วยไม่สามารถเคลื่อนไหวหรือสื่อสารได้เนื่องจากกล้ามเนื้อเป็นอัมพาตโดยสมบูรณ์เกือบทั้งหมด และ ซึ่งปัจจุบันสามารถสื่อสารได้เพียงกระพริบตาเท่านั้น สำหรับผู้ที่มี LIS แอปพลิเคชั่นนี้นำเสนอวิธีการใช้ BCI เป็นเครื่องมือสื่อสารที่ไม่รุกราน Randolph ได้ค้นคว้าเกี่ยวกับ BCI มานานกว่าทศวรรษและเป็นผู้อำนวยการ KSU BrainLab นับตั้งแต่ก่อตั้งใน 2007 เธอทุ่มเทให้กับการใช้การวิจัยเพื่อช่วยปรับปรุงคุณภาพชีวิตของผู้ที่มีความบกพร่องทางการเคลื่อนไหวขั้นรุนแรง เครดิตภาพ: xombit.com

  • บ้าน
  • ธุรกิจ
  • วิทยาศาสตร์ข้อมูล
  • การตลาดดิจิทัล

  • ตลาดการค้า
  • Leave a Reply

    Your email address will not be published. Required fields are marked *

    Back to top button