На днях вышел крайне интересный материал на Tom's Hardware о стартапе из Сан-Франциско — The Biological Computing Company, который заявил о создании первой биологической вычислительной платформы для задач искусственного интеллекта.
Если коротко — речь идёт о попытке заменить часть кремниевых вычислений в AI-инфраструктуре… живыми нейронами.
Звучит как научная фантастика, но потенциально это может означать смену парадигмы всей индустрии машинного обучения.
Сухие цифры и факты
Согласно опубликованным данным:
система использует живые биологические нейроны как вычислительную среду
реальные данные (изображения, видео) кодируются в нейронную активность
активность нейронной сети затем декодируется обратно в представления для AI-моделей
биологическая вычислительная подсистема может:
работать до 5 раз быстрее, чем классические кремниевые ускорители
потреблять меньше энергии
обеспечивать более высокую точность представления данных
Стартап уже привлёк около $25 млн инвестиций и планирует разворачивать полноценную лабораторию для разработки подобной инфраструктуры.
По сути, речь идёт о создании гибридного вычислительного слоя, который располагается между данными и классическими deep learning-моделями.
Что именно они делают
Архитектура выглядит примерно так:
Изображения или видео поступают в биологическую нейросеть
Нейроны реагируют на стимулы и формируют паттерны активности
Эти паттерны считываются через электрические интерфейсы
Далее они используются как более «богатое» представление данных
И уже потом подаются в традиционные AI-модели
Фактически — это preprocessing-слой, но выполненный не в виде алгоритма, а в виде живой биологической системы.
Компания заявляет, что подобный подход способен улучшить:
computer vision
генеративное видео
алгоритмический поиск
AI-инфраструктуру в целом
Почему это важно для индустрии
Сегодня все современные модели — от LLM до diffusion-сетей — работают на одной и той же фундаментальной архитектуре:
линейная алгебра
матричные операции
градиентный спуск
massive GPU compute
Это означает:
огромные энергозатраты
масштабирование только за счёт железа
экспоненциальный рост стоимости обучения
Биологические вычисления относятся к направлению так называемого
Organoid intelligence — где в качестве hardware используются выращенные нейронные структуры.
Подобные системы теоретически способны:
обучаться быстрее
работать с временными зависимостями лучше
обрабатывать шумные данные эффективнее
потреблять на порядки меньше энергии
То есть выполнять часть задач, для которых сегодня требуются тысячи GPU.
Практическое применение в IT (если это взлетит)
Если подобные платформы дойдут до production-уровня, мы можем увидеть появление:
1. Биологических AI-ускорителей
Аналог GPU, но:
с меньшим энергопотреблением
лучшей обработкой видео и изображений
встроенной адаптивностью
2. Нового поколения AI-агентов
Системы, которые:
быстрее обучаются на реальном мире
лучше обобщают данные
устойчивы к изменению входных параметров
3. Self-learning backend-модулей
Например:
антифрод-систем
систем мониторинга
рекомендательных движков
обработки логов
Где часть логики будет выполняться не цифровой моделью, а био-вычислительным слоем.
Что это значит для разработчиков
Мы можем находиться на этапе, аналогичном переходу:
CPU → GPU
GPU → TPU
И следующим шагом может стать:
Silicon → Wetware
Разумеется, на текущий момент технология остаётся экспериментальной, а сами разработчики говорят о горизонте внедрения в 10–20 лет.
Но если концепция окажется рабочей, это потенциально:
изменит архитектуру AI-моделей
снизит стоимость обучения
уменьшит зависимость от GPU-кластеров
позволит создавать более энергоэффективные AI-системы
А значит — может полностью изменить подход к разработке AI-продуктов так же, как когда-то это сделал deep learning.