=== 512 == ххххх ==
=== текст 1 ==
https://ai-news.ru/2025/05/raschety_na_budushee_chto_pridet_na_smenu_klassicheskim_komputeram.htmlРасчеты на будущее: что придет на смену классическим компьютерам
2025-05-31 14:37
квантовый компьютер 2018, нейропроцессор Фото: Freepik
Компьютерам все чаще поручают новые сложные задачи — от обучения нейросетей до симуляции биологических процессов. Рассказываем, почему старые архитектуры уже не справляются и какие технологии придут им на смену
Память из прошлого: где потолок для традиционного «железа»
Долгое время развитие компьютеров следовало правилу, которое вошло в историю как закон Мура. В 1965 году Гордон Мур, один из основателей компании Intel, заметил: каждые два года количество транзисторов на микросхеме примерно удваивается. А значит, чипы становятся быстрее, мощнее и дешевле.
Транзистор — это крошечный электронный переключатель, управляющий током. Чем больше таких переключателей на чипе, тем выше его вычислительная мощность.
Это простое наблюдение стало двигателем всей индустрии: с 1971 года, когда появился процессор Intel 4004 (2300 транзисторов, размер — 10 микрометров), и до наших дней количество транзисторов в микросхемах росло в геометрической прогрессии. Но важно понимать: закон Мура — это не физический закон, а скорее инженерная цель, которую индустрия долгое время успешно достигала.
Сегодня эта гонка начинает замедляться. Транзисторы уже настолько малы, что их сложно производить: электроны начинают «просачиваться» сквозь границы, чипы перегреваются, а энергозатраты растут. Производство становится все более дорогим и сложным. Скорость и эффективность растут все медленнее — эпоха бесконечного масштабирования подходит к концу.
Закон Мура в реальной жизни (Фото: ourworldindata.org)
И дело не только в «железе». Современные задачи — от обучения нейросетей и обработки больших данных до симуляций климата или биологических процессов — требуют не только скорости, но и иного подхода к вычислениям. Большинство компьютеров до сих пор устроены по модели фон Неймана, предложенной еще в середине XX века. Она основана на разделении памяти и процессора: данные хранятся в одном месте, обрабатываются в другом и постоянно перемещаются между ними.
Этот принцип хорошо работал десятилетиями, но при оперировании огромными объемами информации он превращается в узкое горлышко. Даже самый быстрый процессор не сможет эффективно работать, если все время простаивает, ожидая данные из памяти.
Поэтому сегодня речь идет не только о том, чтобы делать чипы еще быстрее. Ученые все чаще задумываются о другом: как изменить саму архитектуру вычислений под задачи XXI века. И здесь на сцену выходят новые, неклассические подходы.
Нейроморфные вычисления: думать, как мозг
Сегодня, когда классические компьютеры начинают буксовать, исследователи все чаще обращаются к природе, а точнее — к самому совершенному вычислительному устройству, которое мы знаем, — человеческому мозгу. Так появился подход под названием нейроморфные вычисления.
Нейроморфные вычисления не просто запускают нейросети на обычных чипах, а создают «железо», которое само работает по принципам мозга.
В отличие от привычных процессоров (CPU) и видеокарт (GPU), где данные обрабатываются поочередно и строго по инструкции, нейроморфные чипы работают параллельно и асинхронно, как нейроны в мозге. Вместо непрерывного сигнала — короткие импульсы, которые напоминают всплески активности между нейронами. Это делает такие системы не только более естественными для работы с искусственным интеллектом, но и гораздо более энергоэффективными.
Это может пригодиться прежде всего там, где нужно обрабатывать данные быстро и с минимальными затратами, — например, в «умных» камерах, сенсорных системах, роботах, мобильных устройствах, в которых важно экономить заряд. Нейроморфные чипы могут распознавать образы или речь почти мгновенно и без облака — прямо «на месте».
Крупные компании уже экспериментируют с такими чипами. IBM TrueNorth стал одной из первых масштабных попыток воспроизвести нейронную архитектуру в «железе».
Внешний вид процессора IBM TrueNorth (Фото: habr.com)
Intel Loihi — еще один заметный проект, где реализованы адаптивность и обучение на уровне чипа.
Внешний вид процессора Intel Loihi 2 (Фото: habr.com)
А в Великобритании развивается система SpiNNaker, в которой миллионы искусственных нейронов взаимодействуют в реальном времени, как в мозге.
Но у технологии пока есть серьезные ограничения. Главная проблема — программное обеспечение. Писать код для нейроморфных систем гораздо сложнее, чем для обычных компьютеров. Под них нет привычных языков программирования и отлаженных библиотек. Кроме того, пока такие чипы не могут заменить универсальные процессоры — они хороши в узких задачах, но не подходят для всего подряд.
==========
Будущее компьютерных технологий: что заменит классические компьютеры
Текущие вызовы и ограничения
Современные задачи, такие как обучение нейросетей, обработка больших данных и симуляция биологических процессов, требуют новых подходов к вычислениям. Закон Мура, который определял развитие компьютерной индустрии на протяжении десятилетий, подходит к своему завершению. Производство транзисторов становится всё более сложным и дорогим, а скорость и эффективность растут всё медленнее.
Новые подходы к вычислениям
Нейроморфные вычисления:
Этот подход имитирует работу человеческого мозга.
Вместо последовательной обработки данных, как в традиционных процессорах и GPU, нейроморфные чипы работают параллельно и асинхронно.
Они используют короткие импульсы вместо непрерывного сигнала, что делает их более энергоэффективными.
Примеры: IBM TrueNorth, Intel Loihi, система SpiNNaker в Великобритании.
Квантовые вычисления:
Используют принципы квантовой механики для обработки информации.
Позволяют решать задачи, которые невозможно эффективно решить на классических компьютерах, например, задачи оптимизации и криптографии.
Преимущества нейроморфных вычислений
Высокая энергоэффективность: идеально подходят для устройств, где важна экономия заряда.
Быстрая обработка данных: способны мгновенно распознавать образы и речь.
Локальная обработка: могут выполнять задачи без необходимости подключения к облаку.
Ограничения нейроморфных систем
Сложность программирования: отсутствуют привычные языки программирования и отлаженные библиотеки.
Узкая специализация: эффективны для специфических задач, но не универсальны.
Заключение
Переход к новым архитектурам вычислений — неизбежный этап в развитии технологий. Нейроморфные и квантовые вычисления обещают революционизировать многие области, от автономных систем до искусственного интеллекта. Однако для их широкого применения необходимо решить ряд технических и программных задач.
Эти технологии открывают широкие перспективы для инноваций, но также требуют новых подходов к разработке и интеграции в существующие системы. Будущее компьютерных технологий обещает быть захватывающим и полным новых возможностей.
=== текст 2 ==
Тем не менее интерес к нейроморфным системам растет. По мере того как классические архитектуры выдыхаются, все больше ученых и инженеров задаются вопросом: а что, если будущее компьютеров действительно похоже на мозг?
Мемристоры: как объединить память и вычисления
В традиционном компьютере все строго по ролям: процессор считает, память хранит. Для каждой операции данные нужно считывать, обрабатывать, снова записывать — и так миллионы раз в секунду. Это «туда-сюда» занимает время, требует энергии и становится узким местом при работе с большими объемами данных. А теперь представьте себе элемент, который умеет одновременно и считать, и помнить. Такой элемент существует — это мемристор (от memory resistor, то есть резистор с памятью).
Мемристор, в отличие от обычного транзистора, может запоминать, сколько тока через него прошло, и менять свое сопротивление в зависимости от этого. Чем чаще он используется, тем легче проходит сигнал — почти как синапсы в мозге, которые укрепляются с опытом. Это делает мемристоры принципиально новым строительным блоком для компьютеров будущего.
Главное преимущество мемристоров — они позволяют объединить память и вычисления в одном элементе. Это означает, что данные не нужно все время передавать между чипами, а значит, снижается энергопотребление, повышается скорость и появляется возможность более «живых» форм обработки информации.
Это особенно важно для ИИ, где часто приходится работать с миллионами параметров. Мемристоры могут выполнять матричные операции, имитируя работу нейросетей не в софте, а прямо в «железе», что в разы быстрее и экономичнее.
Пока мемристоры находятся в стадии активных исследований. Одной из первых на этом направлении была компания HP, которая в 2010-х годах пообещала создать принципиально новый тип компьютера. Позже появились лабораторные прототипы в университетах и стартапах — от США до Китая и России. Некоторые из них уже могут выполнять базовые операции и демонстрировать обучение на уровне «железа».
Схема мемристора HP Labs (Фото: nature.com)
Промышленных устройств на мемристорах пока нет, но потенциал огромен. Если технологии удастся довести до ума, это может изменить саму логику работы компьютеров.
Квантовые вычисления: что за пределами классической логики
Квантовые компьютеры кардинально отличаются от привычных нам машин. Вместо работы по классическим правилам логики, где бит может быть либо нулем, либо единицей, они используют кубиты, способные находиться одновременно в обоих состояниях. Это явление называется суперпозицией. А еще кубиты умеют быть запутанными: если изменить один, второй мгновенно отреагирует, даже если находится на другом конце устройства, словно между ними существует ?невидимая связь. Благодаря этим свойствам квантовый компьютер не просто перебирает варианты по очереди, как классическая машина, а обрабатывает множество комбинаций одновременно.
Квантовые компьютеры, однако, пока далеки от массового использования, несмотря на то что их прототипы уже существуют и применяются в некоторых исследовательских задачах.
Кубиты крайне нестабильны: они быстро теряют свое квантовое состояние, это называется декогеренцией. Для работы требуются почти абсолютный ноль по температуре и сложнейшая система защиты от внешнего шума. Кроме того, пока нет надежных и масштабируемых систем коррекции ошибок — они существуют, но требуют огромных ресурсов.
Тем не менее прогресс идет. У Google есть квантовый чип Sycamore, который в 2019 году выполнил вычислительную задачу за 200 секунд — по оценкам, обычному суперкомпьютеру на это понадобилось бы 10 тыс. лет.
Внешний вид квантового чипа Sycamore (Фото: nature.com)
IBM предоставляет облачный доступ к своим квантовым устройствам. D-Wave создает квантовые системы для прикладной оптимизации, а стартапы вроде IonQ и Rigetti развивают альтернативные подходы к построению квантовых чипов.
Другие подходы: от фотонов до молекул
Перечисленные выше подходы — это не единственный путь за пределы классической архитектуры. Наряду с ними развиваются и другие, не менее смелые направления: от вычислений на свету до машин на основе молекул ДНК. Пока все они находятся на ранних этапах, но уже демонстрируют рабочие прототипы и первые прикладные результаты.
Один из таких подходов — оптические компьютеры. Вместо электронов они используют фотоны — частицы света. Это позволяет проводить вычисления быстрее, не перегревая чипы, а также обрабатывать данные параллельно. Особенно перспективны фотонные технологии в задачах машинного обучения и ИИ. Например, американская компания Lightmatter уже представила фотонный суперчип Passage M1000, который способен обрабатывать данные с пропускной способностью до 114 Тбит/с. Для сравнения: типичный GPU, используемый в ИИ-задачах (например, NVIDIA A100), обеспечивает пропускную способность памяти около 2 ТБ/с. Даже в самых продвинутых системах этот показатель редко превышает 10 ТБ/с. То есть Passage M1000 потенциально в 10–50 раз быстрее по скорости передачи данных, чем традиционные решения. Его планируют использовать для ускорения нейросетей в дата-центрах нового поколения.
==========
Будущее компьютерных технологий: новые подходы и инновации
Мемристоры: революция в объединении памяти и вычислений
Современные компьютеры разделены на процессор и память, что создает задержки и требует большого количества энергии. Мемристоры предлагают революционное решение — объединение памяти и вычислительных функций в одном элементе.
Принцип работы: мемристор изменяет своё сопротивление в зависимости от прошедшего через него тока, что позволяет запоминать информацию и обрабатывать данные непосредственно в памяти.
Преимущества: снижение энергопотребления, повышение скорости работы, возможность создания более «живых» систем обработки информации.
Текущие исследования: активно исследуются в лабораториях по всему миру, первые прототипы уже демонстрируют базовые функции.
Квантовые вычисления: мощь суперпозиции и запутанности
Квантовые компьютеры работают с кубитами, которые могут находиться в нескольких состояниях одновременно, что позволяет обрабатывать множество комбинаций данных параллельно.
Основные особенности: суперпозиция и квантовая запутанность.
Проблемы: нестабильность кубитов, необходимость экстремально низких температур, сложность коррекции ошибок.
Примеры: квантовый чип Google Sycamore, облачные квантовые системы IBM, квантовые оптимизационные системы D-Wave.
Другие перспективные направления
Оптические компьютеры: используют фотоны вместо электронов, что позволяет проводить вычисления быстрее и без перегрева. Пример — фотонный суперчип Passage M1000 от Lightmatter с пропускной способностью 114 Тбит/с.
Молекулярные компьютеры: используют молекулы ДНК и другие биологические компоненты для создания вычислительных систем.
Нейроморфные системы: имитируют работу человеческого мозга, обеспечивая параллельную и асинхронную обработку данных.
Заключение
Будущее компьютерных технологий обещает быть захватывающим и полным инноваций. Переход от классических архитектур к новым подходам, таким как мемристоры, квантовые и оптические вычисления, открывает огромные перспективы для повышения эффективности и производительности. Эти технологии могут радикально изменить способы обработки информации и привести к созданию принципиально новых устройств и систем.
Однако для их широкого внедрения необходимо решить множество технических и научных задач, а также разработать новые методы программирования и интеграции в существующие инфраструктуры.
=== текст 3 ==
Passage M1000, фотонный суперчип (Фото: tomshardware.com)
Еще один экзотический, но активно развивающийся вариант — ДНК-вычисления. В таких системах логические операции и хранение информации происходят не на кремниевых чипах, а внутри молекул ДНК. Принцип работы прост: ДНК состоит из четырех «букв», азотистых оснований — A, T, G и C. Их можно использовать для кодирования нулей и единиц. Специальные ферменты заставляют молекулы взаимодействовать по заданным правилам — так выполняются логические операции.
Американская компания CATALOG в 2023 году представила ДНК-компьютер под названием Shannon, который может не только записывать данные в молекулярном виде, но и выполнять поиск и сортировку прямо внутри биологической среды.
А ученые из Университета Вашингтона и Microsoft создали первый полностью автоматизированный прототип ДНК-хранилища. Их устройство переводит цифровую информацию (нули и единицы) в последовательности ДНК (те самые буквы A, T, G, C), синтезирует настоящие молекулы, сохраняет их, а потом считывает обратно и расшифровывает. В эксперименте устройство записало слово Hello (5 байт), но на чтение и восстановление ушло около 21 часа, а из тысяч попыток только одна была расшифрована успешно.
Такие технологии особенно перспективны для задач архивного хранения (одна пробирка способна вмещать терабайты информации) и перебора огромного количества комбинаций — например, в криптографии.
Помимо квантовых и нейроморфных подходов ученые исследуют возможности использования волн — звуковых, световых и других — для выполнения вычислений. Эти методы работают на физических свойствах волн, таких как интерференция и дифракция, для обработки информации.
В области акустических вычислений исследователи из Стэнфордского университета разработали чип, который использует звуковые волны для выполнения математических операций с минимальным энергопотреблением. Этот подход позволяет создавать энергоэффективные устройства для обработки данных на периферии сети (edge computing).
Все эти технологии не конкуренты традиционным компьютерам, а скорее их союзники в решении специфических задач. Вероятно, вычисления будущего будут строиться как экосистема разных архитектур, каждая из которых будет хороша в своей нише. И чем раньше мы научимся их комбинировать, тем ближе окажемся к очередному вычислительному прорыву.
телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.
Источник: trends.rbc.ru
==========
ДНК-вычисления и другие перспективные технологии будущего
ДНК-вычисления
ДНК-вычисления представляют собой инновационный подход, где логические операции и хранение данных осуществляются на уровне молекул ДНК. Основные принципы:
Использование азотистых оснований (A, T, G, C) для кодирования информации.
Применение специальных ферментов для выполнения логических операций через взаимодействие молекул.
Современные достижения:
Компания CATALOG представила ДНК-компьютер Shannon, способный записывать и обрабатывать данные внутри биологической среды.
Учёные из Университета Вашингтона и Microsoft разработали автоматизированное ДНК-хранилище, которое успешно синтезировало и расшифровало слово “Hello” (5 байт), хотя процесс занял около 21 часа.
Перспективы ДНК-вычислений:
Архивное хранение данных: одна пробирка может вместить терабайты информации.
Применение в криптографии благодаря возможности перебора огромного количества комбинаций.
Другие перспективные направления
Волновые вычисления:
Использование звуковых и световых волн для обработки информации.
Применение физических свойств волн (интерференция, дифракция) для выполнения вычислений.
Пример акустических вычислений:
Исследователи из Стэнфордского университета создали чип, использующий звуковые волны для выполнения математических операций с минимальным энергопотреблением.
Идеально подходит для периферийной обработки данных (edge computing).
Заключение
Все эти технологии — не конкуренты традиционным компьютерам, а скорее их союзники в решении специфических задач. Будущее вычислений представляется как экосистема различных архитектур, каждая из которых будет эффективна в своей области.
Комбинирование различных подходов позволит достичь новых высот в вычислительной технике и приблизить очередной технологический прорыв. Интеграция ДНК-вычислений, квантовых и нейроморфных систем, а также волновых технологий откроет новые возможности для развития науки и техники.
==========
моё дело тебя проинформировать, твоё принять к сведению. Какие выводы ты делаешь из текста?
Из представленных текстов можно сделать несколько важных выводов:
Эволюция компьютерных технологий:
Современные классические компьютеры сталкиваются с ограничениями в скорости и энергоэффективности. Это стимулирует разработку новых подходов к вычислениям.
Нейроморфные вычисления:
Представляют собой перспективное направление, имитирующее работу человеческого мозга. Они обладают высокой энергоэффективностью и быстрой обработкой данных, что делает их идеальными для задач искусственного интеллекта и автономных систем.
Мемристоры:
Объединение памяти и вычислительных функций в одном элементе может значительно повысить эффективность и скорость работы компьютеров. Это направление активно исследуется и имеет большой потенциал для практического применения.
Квантовые вычисления:
Представляют собой кардинально новый подход к обработке данных с использованием кубитов. Несмотря на сложности с декогеренцией и коррекцией ошибок, квантовые компьютеры уже демонстрируют впечатляющие результаты и имеют потенциал для решения сложных вычислительных задач.
ДНК-вычисления:
Использование молекул ДНК для хранения и обработки данных открывает новые возможности, особенно в архивном хранении и криптографии. Это направление находится на ранней стадии развития, но уже показывает многообещающие результаты.
Другие перспективные технологии:
Волновые вычисления (акустические и оптические) предлагают новые способы обработки данных с минимальным энергопотреблением, что особенно важно для периферийной обработки и IoT-устройств.
Будущее компьютерных технологий:
Вероятно, будущее будет представлять собой экосистему различных архитектур, каждая из которых будет решать специфические задачи. Комбинирование различных подходов позволит достичь новых высот в вычислительной технике.
Эти выводы подчеркивают важность инноваций и междисциплинарного подхода в развитии компьютерных технологий, открывая новые горизонты для исследований и практического применения.