Подпишитесь на рассылку
img

Использование нейросетей: перспективы и опасности использования искусственных нейронных сетей для изучения социального мозга

Время чтения: 7 минут

Новости

  • Изучение социального мозга с помощью искусственных нейронных сетей — область, где нейробиология и машинное обучение пересекаются, открывая новые горизонты, но и порождая серьезные вопросы. Исследование о перспективах и опасностях их использования стало результатом совместной работы ученых, стремившихся систематизировать возможности и риски этого подхода.


    Кратко рассмотрим, как нейросети помогают познанию человека, в чем их риски и ограничения, а также к чему приведут эти технологии. 

  • Как создавалось исследование


    Работа над исследованием о использовании нейросетей для изучения социального мозга началась с анализа современных достижений в моделировании социального познания. Авторы изучили, как нейросети имитируют процессы, лежащие в основе человеческого взаимодействия: распознавание эмоций, теорию сознания, предсказание поведения. Однако параллельно возникла необходимость оценить ограничения — например, способны ли алгоритмы учитывать контекст так же гибко, как мозг человека.


  • img
  • Ключевым этапом стало сопоставление данных нейровизуализации с результатами работы искусственных сетей. Исследователи выявили сходства в обработке социальной информации, но также обнаружили «слепые зоны» ИИ — ситуации, где алгоритмы дают сбои из-за отсутствия реального социального опыта.



    Особое внимание уделили этическим аспектам. Использование нейросетей в нейробиологии может привести к упрощенным трактовкам сложных процессов или даже манипуляциям, если технологии попадут в руки злоумышленников. Авторы подчеркивают: без строгих нормативных рамок прогресс в этой области может обернуться угрозами.

  • Ключевые идеи 


    1. Нейросети помогают преодолеть сложность социального познания


    Социальный мозг — это переплетение нейронных и социальных процессов, каждый из которых крайне сложен сам по себе. Традиционные методы часто вынуждены упрощать либо нейробиологические модели, либо социальные стимулы, что снижает достоверность выводов. Искусственные нейронные сети (ИНС) позволяют работать с этой сложностью напрямую, моделируя нелинейные взаимосвязи между активностью мозга и поведением.



    2. Три ключевые функции нейросетей в социальной нейронауке


    Авторы исследования выделяют три основных направления использования ИНС: 


    • Прогнозирование поведения на основе данных мозга — сети могут выявлять скрытые паттерны в нейровизуализации, улучшая предсказание психических состояний и клинических диагнозов.
    • Анализ натуралистичных социальных стимулов — нейросети автоматически аннотируют выражения лиц, речь и взаимодействия, что раньше требовало ручного кодирования.
    • Создание когнитивных моделей — ИНС, обученные на тех же задачах, что и люди, помогают понять, как мозг обрабатывает социальную информацию.
  • img
  • 3. Натуралистичные исследования становятся возможными


    Социальная нейронаука долго избегала изучения реальных взаимодействий из-за сложности анализа. Теперь ИНС могут расшифровывать речь, отслеживать мимику и даже предсказывать поведение в динамичных сценариях, открывая путь к экспериментам, близким к повседневной жизни.



    4. Ограничения — от переобучения до этических рисков использования нейросетей


    • Несмотря на потенциал, нейросети сталкиваются с серьезными проблемами:
    • Переобучение — модели могут «запоминать» артефакты данных вместо обобщаемых закономерностей.
    • Смещения — ИНС воспроизводят предвзятость обучающих данных, например, хуже распознают эмоции у меньшинств.
    • Черный ящик — отсутствие интерпретируемости затрудняет понимание, на чем основаны прогнозы.
    • Этические риски — использование нейросетей в клинике или криминалистике требует проверки на дискриминацию и ошибки.


    5. Будущее — глубокая социальная нейронаука


    • Авторы прогнозируют, что ИНС станут основой новой парадигмы, объединяющей машинное обучение и нейробиологию. Однако для этого нужны:
    • Коллаборации — крупные наборы данных, подобные консорциумам в генетике.
    • Образование — подготовка исследователей в области ИИ и нейронаук.
    • Регуляция — стандарты для предотвращения вредного применения.
  • Несколько цифр (мир и Россия)


    Интерес к применению искусственных нейронных сетей в нейронауке стремительно растет. Например, обороты набирают клинические применения: метаанализ 2022 года показал, что алгоритмы на основе ИНС достигают точности 80% в диагностике расстройств аутистического спектра по данным фМРТ. 

  • img
  • В 2023 году журнал Nature провел масштабный опрос с участием более 1600 ученых из разных стран, чтобы выяснить их отношение к внедрению искусственного интеллекта в науку. Результаты показали двойственное восприятие: хотя исследователи признают потенциал ИИ, их все чаще беспокоит его влияние.


    Главная проблема, отмеченная 69% респондентов, — растущая зависимость от алгоритмов, способных выявлять статистические закономерности, но не дающих глубокого понимания процессов. Ученые опасаются, что это приведет к «механистической» науке, где корреляции будут подменять причинно-следственные связи.


    Не менее серьезны риски системных искажений: 58% участников указали, что ИИ может воспроизводить и усиливать предвзятость, заложенную в данных, что особенно критично для медицины и социальных наук. Еще 55% отметили, что технологии упрощают фальсификацию результатов, а 53% предупредили о рисках невоспроизводимых исследований из-за некорректного применения алгоритмов.


    Отдельный блок опасений связан с академической этикой: 68% ученых считают, что ИИ способствует распространению дезинформации и плагиата, а 66% указывают на частые ошибки в работах, созданных с его помощью. Эти данные отражают необходимость строгих стандартов проверки и прозрачности при использовании нейросетей в исследованиях.

  • Другие книги и исследования по теме


    1. «Прямое соответствие природе: эволюционный взгляд на биологические и искусственные нейронные сети» — рассматривает сходства между двумя нейросетями: в нашем мозге и компьютере. 


    2. «Модели нейронных сетей и глубокое обучение» — обзор современных подходов в моделировании нейронных процессов.


    3. «Глубокое обучение», Иэн Гудфеллоу — учебник по форме машинного обучения, позволяющей компьютерам учиться на основе опыта и понимать мир с точки зрения иерархии понятий.


    4. «Если глубокое обучение — это ответ, то в чем вопрос?» — критический анализ возможностей ИНС в нейронауке.


    5. «Структура глубокого обучения для нейронауки» — предлагает концептуальные основы применения ИНС.


    6. «Глубокие нейронные сети как научные модели» — обсуждает ИНС как модель мозга.

  • «Газета», а что послушать и посмотреть на эту тему?


  • img
  • Фильмы:


    1. «Она» (2013) — исследует эмоциональные связи между человеком и ИИ, поднимая вопросы социального взаимодействия.


    2. «Из машины» (2014) — поднимает вопросы сознания и социального поведения ИИ.


    3. «Начало» (2010) — хотя и не про ИИ, но визуализирует работу человеческого сознания.

  • Подкасты:


    1. «Machine Learning Podcast», выпуск «О математике, ИИ и судьбе цивилизации» — в чем риски сильных нейросетей и выживет ли человечество. 


    2. «Диалоги об ИИ» — вопросы этики и применения.


    3. «Что изменилось» — подкаст от РБК про тренды в технологиях, бизнесе и экономике, в выпусках которого часто затрагивают нейросети и их влияние на индустрии.

Еще статьи на эту тему

Подпишись на рассылку, чтобы узнавать о новых статьях первым

img
  • Уникальная рубрика
  • 10 уникальных статей
  • Аналитика и исследования

Социум

Разбираем культурные коды и различия в мышлении, которые формируют наше поведение

К рубрике

Социум