adamashek (adamashek) wrote,
adamashek
adamashek

Categories:

Что произойдет, если технологии научатся читать наши мысли?

«Наше представление о конфиденциальности будет бесполезным»: что произойдет, если технологии научатся читать наши мысли?



«Череп действует как оплот уединения; мозг - это наша последняя личная часть », - говорит австралийский нейрохирург Том Оксли из Нью-Йорка.

Оксли - генеральный директор Synchron, нейротехнологической компании, родившейся в Мельбурне, которая успешно испытала высокотехнологичные мозговые имплантаты, которые позволяют людям отправлять электронные письма и тексты исключительно мысленно.

В июле этого года она стала первой компанией в мире, опередив таких конкурентов, как Neuralink Илона Маска, получившую одобрение Управления по контролю за продуктами и лекарствами США (FDA) на проведение клинических испытаний интерфейсов мозг-компьютер (BCI) на людях в НАС.

Synchron уже успешно ввел электроды в мозг парализованных пациентов через их кровеносные сосуды. Электроды записывают активность мозга и передают данные по беспроводной сети на компьютер, где они интерпретируются и используются как набор команд, позволяя пациентам отправлять электронные письма и тексты.

BCI, которые позволяют человеку управлять устройством через соединение между его мозгом и компьютером, рассматриваются как игра, которая меняет правила игры для людей с определенными ограниченными возможностями.

«Никто не может заглянуть внутрь вашего мозга», - говорит Оксли. «Только наши рты и движение тела говорят людям, что у нас внутри мозга… Для людей, которые не могут этого сделать, это ужасная ситуация. Мы пытаемся помочь им извлечь то, что у них внутри черепа. Мы полностью сосредоточены на решении медицинских проблем ».

BCI - это одна из ряда развивающихся технологий, сосредоточенных на головном мозге. Стимуляция мозга - это еще один метод, который подает в мозг целевые электрические импульсы и используется для лечения когнитивных расстройств. Другие, например методы визуализации фМРТ и ЭЭГ, позволяют контролировать мозг в режиме реального времени.

«Потенциал нейробиологии для улучшения нашей жизни практически безграничен, - говорит Дэвид Грант, старший научный сотрудник Мельбурнского университета. «Однако уровень вмешательства, который потребуется для реализации этих преимуществ… очень велик».

Озабоченность Гранта по поводу нейротехнологий не связана с работой таких компаний, как Synchron. Регулируемые медицинские коррекции для людей с когнитивными и сенсорными нарушениями, по его мнению, бесспорны.

Но что, спрашивает он, произойдет, если такие возможности переместятся из медицины в нерегулируемый коммерческий мир? Это антиутопический сценарий, который, по прогнозам Гранта, приведет к «прогрессивному и неуклонному ухудшению нашей способности управлять собственным мозгом».

И хотя этот прогресс остается гипотетическим, он не является немыслимым. В некоторых странах правительства уже принимают меры, чтобы защитить людей от такой возможности.

Новый тип прав

В 2017 году молодой европейский специалист по биоэтике Марчелло Иенка ожидал этих потенциальных опасностей. Он предложил новый класс юридических прав: нейроправа, свобода решать, кому разрешено контролировать, читать или изменять ваш мозг.

Сегодня Йенка является профессором биоэтики в ETH Zurich в Швейцарии и консультирует Европейский совет , ООН, ОЭСР и правительства по вопросу о влиянии технологий на наше понимание того, что значит быть человеком.

Еще до того, как Иенка предложил концепцию нейроправа, он уже пришел к выводу, что неприкосновенность нашего мозга нуждается в защите от прогрессирующих нейротехнологий.

«Итак, в 2015 году, примерно в то время юридические дебаты по нейротехнологии были в основном сосредоточены на уголовном праве», - говорит Йенка.

Большая часть дебатов была теоретической, но ИМК уже проходили медицинские испытания. Шесть лет назад Иенка услышал такие вопросы: «Что происходит, когда устройство выходит из строя? Кто за это отвечает? Должно ли быть законным использование нейротехнологии в качестве доказательства в суде?»

Йенка, которому тогда было 20 лет, считал, что на карту поставлены более фундаментальные проблемы. Технологии, разработанные для декодирования и изменения мозговой активности, потенциально могут повлиять на то, что значит быть «индивидуальным человеком, а не не-человеком».

В то время как человечество нуждается в защите от неправомерного использования нейротехники, говорит Йенка, нейроправа «также касаются того, как наделить людей полномочиями и позволить им процветать и способствовать их психическому и мозговому благополучию с помощью передовых нейробиологии и нейротехнологий».

Иенка говорит, что права нейро - это не только защитная сила, но и положительная сила.

Это мнение Тома Оксли. Он говорит, что прекращение разработки BCI было бы несправедливым нарушением прав людей, которым его компания пытается помочь.

«Является ли возможность отправлять текстовые сообщения выражением права на общение?» он спрашивает. Он утверждает, что если ответ положительный, то право на использование BCI можно рассматривать как цифровое право.

Оксли соглашается с Грантом в том, что конфиденциальность нашего мозга в будущем заслуживает пристального внимания всего мира. Он говорит, что права нейробиологов «абсолютно важны».
«Я понимаю, что мозг - это очень личное место, и мы привыкли, что наш мозг защищен черепом. С этой технологией этого больше не будет ».

Грант считает, что нейро-прав будет недостаточно, чтобы защитить нашу частную жизнь от потенциального воздействия нейротехнологий за пределами медицины.

«Наше нынешнее представление о конфиденциальности будет бесполезным перед лицом такого глубокого вторжения», - говорит он.

В китайских классах уже используются коммерческие продукты, такие как гарнитуры, которые, как утверждается, улучшают концентрацию внимания. Колпачки, отслеживающие усталость водителей грузовиков, использовались на рудниках в Австралии. Подобные устройства генерируют данные о мозговой активности пользователей. По словам Гранта, где и как хранятся эти данные, трудно отследить и еще сложнее контролировать.

Грант считает, что количество информации, которой люди уже делятся, включая нейро-данные, является непреодолимой проблемой для нейро-прав.

«Наивно думать, что мы можем справиться с этим на основе принятия закона».

Он признает, что предложенные Грантом решения проблемы навязчивого потенциала нейротехники радикальны. Он предполагает разработку «персональных алгоритмов», которые работают как узкоспециализированные брандмауэры между человеком и цифровым миром. Эти коды могут взаимодействовать с цифровым миром от имени человека, защищая его мозг от вторжения или изменения.

Последствия обмена нейро-данными беспокоят многих специалистов по этике.

«Я имею в виду, что мозг занимает центральное место во всем, что мы делаем, думаем и говорим», - говорит Стивен Рейни из Оксфордского центра практической этики Уэхиро .

«Это не так, как будто вы заканчиваете этими нелепыми антиутопиями, когда люди контролируют ваш мозг и заставляют вас что-то делать. Но бывают скучные антиутопии ... вы посмотрите на компании, которые интересуются [личными данными], и в первую очередь это Facebook и Google. Они пытаются создать модель того, что такое человек, чтобы это можно было эксплуатировать. ”

Ходы, чтобы регулировать

Чили не рискует потенциальными рисками нейротехнологий.

Впервые в мире в сентябре 2021 года чилийские законодатели одобрили поправку к конституции, которая закрепляет психическую неприкосновенность как право всех граждан. Сенат Чили также прорабатывает законопроекты, регулирующие нейротехнологии, цифровые платформы и использование ИИ. Будут рассмотрены принципы нейроправа права на когнитивную свободу, психическую неприкосновенность, психическую неприкосновенность и психологическую преемственность.

Европа также делает шаги в направлении защиты прав нейробиологов.

В этом году Франция одобрила закон о биоэтике, который защищает право на психическую неприкосновенность. Испания работает над законопроектом о цифровых правах с разделом о неврологических правах, а Управление по защите данных Италии рассматривает вопрос о том, подпадает ли ментальная конфиденциальность под действие прав страны на неприкосновенность частной жизни.

Австралия подписала необязательную рекомендацию ОЭСР об ответственных инновациях в нейротехнологиях , опубликованную в 2019 году.

Обещание, паника и потенциальные риски

Австралийский нейробиолог и специалист по этике, доцент Адриан Картер из Университета Монаша в Мельбурне, описывается коллегами как имеющий «хороший BS-детектор» для реальных и воображаемых угроз, исходящих от нейротехнологий. Как самопровозглашенный «спекулятивный специалист по этике», он смотрит на потенциальные последствия технического прогресса.

Он объясняет, что шумиха из-за чрезмерных продаж нейро-лечения может повлиять на их эффективность, если ожидания пациентов завышены. Шумиха также может вызвать необоснованную панику.

«Многие вещи, которые сейчас обсуждаются, еще очень далеко, если вообще будут», - говорит Картер.

"Чтение мыслей? Этого не случится. По крайней мере, не так, как многие думают. Мозг слишком сложен. Возьмем компьютерные интерфейсы мозга; Да, люди могут управлять устройством с помощью своих мыслей, но они много тренируются, чтобы технология распознавала определенные закономерности активности мозга, прежде чем она сработает. Они не просто думают «открой дверь», и это случается ».

Картер отмечает, что некоторые из угроз, приписываемых будущим нейротехнологиям, уже присутствуют в том, как данные используются технологическими компаниями каждый день.

Искусственный интеллект и алгоритмы, которые считывают движение глаз и обнаруживают изменения цвета и температуры кожи, считывают результаты активности мозга в контролируемых исследованиях для рекламы. Эти данные годами использовались коммерческими организациями для анализа, прогнозирования и стимулирования поведения.

«Такие компании, как Google, Facebook и Amazon, заработали миллиарды на [личных данных]», - отмечает Картер.

Антиутопии, возникающие из данных, собранных без согласия, не всегда так скучны, как реклама в Facebook.

Стивен Рейни из Оксфорда указывает на скандал с Cambridge Analytica , когда данные 87 миллионов пользователей Facebook были собраны без согласия. Компания построила психологические профили избирателей на основе симпатий людей, чтобы информировать политические кампании Дональда Трампа и Теда Круза .

«Именно в этом направлении возникает коммерческий интерес, и люди хотят делать что-то еще с данными, и здесь возникает весь риск», - говорит Рейни.

«Это приносит всю экономику данных, от которой мы уже страдаем, прямо в нейропространство, и есть потенциал для неправильного использования. Я имею в виду, было бы наивно думать, что авторитарные правительства не будут заинтересованы ».

Том Оксли говорит, что он «не наивен» в том, что злоумышленники могут неправильно использовать исследования, которые он и другие проводят в BCI.

Он отмечает, что первоначальное финансирование Synchron поступило от военных США, которые стремились разработать роботизированные руки и ноги для раненых солдат, управляемых с помощью чипов, имплантированных в их мозг.

Хотя нет никаких предположений о том, что США планируют использовать эту технологию в качестве оружия, Оксли говорит, что невозможно игнорировать военную обстановку. «Если BCI в конечном итоге станет оружием, у вас будет прямая связь мозга с оружием», - говорит Оксли.

Этот потенциал, похоже, осознал правительство США. Его Бюро промышленности и безопасности в прошлом месяце выпустило меморандум о перспективе ограничения экспорта технологий BCI из США . Признавая его использование в медицине и развлечениях, бюро выразило обеспокоенность тем, что оно может быть использовано военными для «улучшения возможностей солдат-людей и в беспилотных военных операциях». https://www.federalregister.gov/documents/2021/10/26/2021-23256/request-for-comments-concerning-the-imposition-of-export-controls-on-certain-brain-computer
Далее здесь https://www.theguardian.com/technology/2021/nov/07/our-notion-of-privacy-will-be-useless-what-happens-if-technology-learns-to-read-our-minds
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 0 comments