كانت التكنولوجيات العصبية ــ الأجهزة التي تتفاعل بشكل مباشر مع الدماغ أو الجهاز العصبي ــ تُرفَض ذات يوم باعتبارها مادة من الخيال العلمي. ليس بعد الآن. تقوم العديد من الشركات بالتطوير، بل إن بعضها يختبر “واجهات الدماغ الحاسوبية” أو BCIs، والتي من المرجح أن تكون شركة Neuralink التي ابتكرها إيلون ماسك هي الأكثر شهرة. وأعلن في 29 يناير 2024، عن أول إنسان في التجارب السريرية للشركة وقد تلقى زرع الدماغ.
مثل الشركات الأخرى، الهدف المباشر لشركة Neuralink هو تحسين الاستقلالية للمرضى الذين يعانون من شلل حاد أو اضطرابات عصبية أخرى.
ولكن ليس كل أجهزة BCI مصممة للاستخدام الطبي: فهناك سماعات رأس EEG تستشعر النشاط الكهربائي داخل دماغ مرتديها وتغطي مجموعة واسعة من التطبيقات، من الترفيه والعافية إلى التعليم ومكان العمل. ومع ذلك، فإن طموحات ماسك تتجاوز هذه الاستخدامات العلاجية وغير الطبية. تهدف شركة Neuralink إلى مساعدة الناس في نهاية المطاف “تفوق الأداء البشري القادر على العمل“.
لقد ارتفعت أبحاث وبراءات الاختراع في مجال التكنولوجيا العصبية بما لا يقل عن عشرين ضعفًا خلال العقدين الماضيين، وفقًا لتقرير صادر عن الأمم المتحدة، كما أصبحت الأجهزة أكثر قوة. تتمتع الأجهزة الأحدث بالقدرة على جمع البيانات من الدماغ وأجزاء أخرى من الجهاز العصبي بشكل أكثر مباشرة وبدقة أعلى وبكميات أكبر وبطرق أكثر انتشارًا.
ومع ذلك، أثارت هذه التحسينات أيضًا مخاوف بشأن الخصوصية العقلية والاستقلالية البشرية – وهي الأسئلة التي أفكر فيها في بحثي حول الآثار الأخلاقية والاجتماعية لعلوم الدماغ والهندسة العصبية. من يملك البيانات التي تم إنشاؤها، ومن يجب أن يحصل على حق الوصول إليها؟ فهل يمكن لهذا النوع من الأجهزة أن يهدد قدرة الأفراد على اتخاذ قرارات مستقلة؟
وفي يوليو/تموز 2023، عقدت وكالة الأمم المتحدة للعلوم والثقافة مؤتمرا حول أخلاقيات التكنولوجيا العصبية، داعية إلى إطار لحماية حقوق الإنسان. حتى أن بعض النقاد زعموا أن المجتمعات يجب أن تعترف بفئة جديدة من حقوق الإنسان، “الحقوق العصبية”. وفي عام 2021، أصبحت تشيلي أول دولة يعالج دستورها المخاوف بشأن التكنولوجيا العصبية.
يثير التقدم في التكنولوجيا العصبية مخاوف مهمة تتعلق بالخصوصية. ومع ذلك، أعتقد أن هذه المناقشات يمكن أن تتجاهل المزيد من التهديدات الأساسية للخصوصية.
لمحة من الداخل
تركز المخاوف بشأن التكنولوجيا العصبية والخصوصية على فكرة أن المراقب يستطيع “قراءة” أفكار الشخص ومشاعره فقط من خلال تسجيلات نشاط دماغه.
صحيح أن بعض التقنيات العصبية يمكنها تسجيل نشاط الدماغ بدرجة كبيرة من الخصوصية: على سبيل المثال، التطورات في مصفوفات الأقطاب الكهربائية عالية الكثافة التي تسمح بالتسجيل عالي الدقة من أجزاء متعددة من الدماغ.
يمكن للباحثين التوصل إلى استنتاجات حول الظواهر العقلية وتفسير السلوك بناءً على هذا النوع من المعلومات. ومع ذلك، فإن “قراءة” نشاط الدماغ المسجل ليست بالأمر السهل. لقد مرت البيانات بالفعل عبر المرشحات والخوارزميات قبل أن تحصل العين البشرية على المخرجات.
ونظراً لهذه التعقيدات، كتبت أنا وزميلي دانييل سوسر مقالاً في المجلة الأمريكية لأخلاقيات علم الأحياء – علم الأعصاب، تساءلنا فيه عما إذا كانت بعض المخاوف بشأن الخصوصية العقلية في غير محلها.
ورغم أن التكنولوجيا العصبية تثير مخاوف كبيرة تتعلق بالخصوصية، فإننا نرى أن المخاطر مماثلة لتلك التي تتعرض لها تقنيات جمع البيانات المألوفة، مثل المراقبة اليومية عبر الإنترنت: وهو النوع الذي يختبره أغلب الناس من خلال متصفحات الإنترنت والإعلانات، أو الأجهزة القابلة للارتداء. حتى سجلات المتصفح على أجهزة الكمبيوتر الشخصية قادرة على الكشف عن معلومات حساسة للغاية.
ومن الجدير بالذكر أيضًا أن أحد الجوانب الأساسية لكونك إنسانًا كان دائمًا استنتاج سلوكيات الآخرين وأفكارهم ومشاعرهم. نشاط الدماغ وحده لا يروي القصة كاملة؛ هناك حاجة أيضًا إلى تدابير سلوكية أو فسيولوجية أخرى للكشف عن هذا النوع من المعلومات، فضلاً عن السياق الاجتماعي. على سبيل المثال، قد تشير زيادة معينة في نشاط الدماغ إلى الخوف أو الإثارة.
ومع ذلك، هذا لا يعني أنه لا يوجد سبب للقلق. يستكشف الباحثون اتجاهات جديدة يمكن من خلالها استخدام أجهزة استشعار متعددة – مثل عصابات الرأس، وأجهزة استشعار المعصم، وأجهزة استشعار الغرفة – لالتقاط أنواع متعددة من البيانات السلوكية والبيئية. ويمكن استخدام الذكاء الاصطناعي لدمج تلك البيانات في تفسيرات أكثر قوة.
فكر بنفسك؟
هناك مناقشة أخرى مثيرة للتفكير حول التكنولوجيا العصبية تتناول الحرية المعرفية. وفقاً لمركز الحرية المعرفية والأخلاق، الذي تأسس عام 1999، يشير المصطلح إلى “حق كل فرد في التفكير بشكل مستقل ومستقل، واستخدام القوة الكاملة لعقله، والانخراط في أنماط متعددة من التفكير. “
وفي الآونة الأخيرة، أعاد باحثون آخرون طرح هذه الفكرة على السطح، كما هو الحال في كتاب الباحثة القانونية نيتا فرحاني “المعركة من أجل دماغك”. يجادل أنصار الحرية المعرفية على نطاق واسع بالحاجة إلى حماية الأفراد من التلاعب بعملياتهم العقلية أو مراقبتها دون موافقتهم. ويجادلون بأنه قد تكون هناك حاجة إلى تنظيم أكبر للتكنولوجيا العصبية لحماية حرية الأفراد في تحديد أفكارهم الداخلية والتحكم في وظائفهم العقلية.
وهي حريات مهمة، وهناك بالتأكيد سمات محددة ــ مثل تلك التي تتمتع بها التكنولوجيا العصبية الجديدة في التعامل مع الدماغ وتطبيقات التكنولوجيا العصبية غير الطبية ــ التي تثير تساؤلات مهمة. ومع ذلك، أود أن أزعم أن الطريقة التي تتم بها مناقشة الحرية المعرفية في هذه المناقشات تنظر إلى كل فرد على أنه عامل منعزل ومستقل، ويهمل الجوانب العلائقية لهويتنا وكيف نفكر.
الأفكار لا تنبثق ببساطة من لا شيء في رأس شخص ما. على سبيل المثال، جزء من عملي العقلي أثناء كتابتي لهذا المقال هو تذكر الأبحاث التي أجراها زملائي والتأمل فيها. أنا أفكر أيضًا في تجاربي الخاصة: إن الطرق العديدة التي وصلت إليها اليوم هي مزيج من تربيتي، والمجتمع الذي نشأت فيه، والمدارس التي التحقت بها. حتى الإعلانات التي يعرضها متصفح الويب الخاص بي يمكن أن تشكل أفكاري.
كم هي أفكارنا فريدة من نوعها لنا؟ إلى أي مدى يتم التلاعب بعملياتي العقلية من خلال تأثيرات أخرى؟ ومع أخذ ذلك في الاعتبار، كيف ينبغي للمجتمعات أن تحمي الخصوصية والحرية؟
أعتقد أن الاعتراف بمدى تشكيل أفكارنا ومراقبتها من قبل العديد من القوى المختلفة يمكن أن يساعد في تحديد الأولويات عندما تصبح التقنيات العصبية والذكاء الاصطناعي أكثر شيوعًا. إن النظر إلى ما هو أبعد من التكنولوجيا الجديدة لتعزيز قوانين الخصوصية الحالية قد يعطي نظرة أكثر شمولية للتهديدات العديدة التي تهدد الخصوصية، وما هي الحريات التي تحتاج إلى الدفاع عنها.
هذه نسخة محدثة من مقالة نُشرت في الأصل بتاريخ 7 أغسطس 2023.
تم إعادة نشر هذا المقال من The Conversation، وهي منظمة إخبارية مستقلة غير ربحية تقدم لك حقائق وتحليلات جديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتب بواسطة: لورا واي كابريرا، ولاية بنسلفانيا
اقرأ أكثر:
تتلقى Laura Y. Cabrera تمويلًا من المعاهد الوطنية للصحة ومراكز الاكتئاب التابعة للشبكة الوطنية. وهي تابعة لـ IEEE والجمعية الدولية لأخلاقيات الأعصاب.
اترك ردك