Створено ШІ, який навчається “з нуля”

У MIT створили нейромережу, яка навчається без наборів даних і генерує новий контент з «нульової інформації»

Команда з Massachusetts Institute of Technology (MIT CSAIL) спільно з дослідниками з Toyota Technological Institute at Chicago (TTIC) представила одну з найрадикальніших моделей 2025 року: генеративну систему SelfInit-GEN, здатну навчатися без традиційних датасетів — фактично «з нуля».

Робота була презентована 13 листопада на щорічній конференції NeurIPS 2025 Workshop on Data-Free Learning.

Що це означає

У класичному генеративному моделюванні системи навчаються на великих обсягах даних — від сотень гігабайт до трильйонів токенів. SelfInit-GEN натомість:

  • не використовує жодних зовнішніх наборів даних,

  • не завантажує навчальні вибірки з інтернету,

  • розвиває власні внутрішні «первинні патерни», які формуються з випадкових шумових сигналів,

  • поступово «самоструктурує» інформацію, створюючи внутрішню модель світу.

Професор Chung-Yi Lin (MIT CSAIL), один з авторів роботи, пояснює:

«Ми наблизились до моделі, яка не повторює світ, а конструює його з нульового стану. Це не просто навчання без даних — це спосіб створення базової онтології всередині нейромережі».

Як працює SelfInit-GEN

Система використовує трипоетапний цикл:

  1. Self-Init Phase

    Мережа ініціює внутрішні шумові структури, що випадково поєднуються у патерни.

  2. Internal Symmetry Discovery

    Нейромережа виявляє закономірності в тому, що сама й згенерувала — фактично виконує «самоаналіз».

  3. Generative Emergence

    Модель виробляє контент (зображення, текстові структури, звукові хвилі), який не наслідує жодної існуючої бази даних.

Згідно з технічним звітом, модель змогла:

  • генерувати базові форми й силуети на рівні early-vision моделей,

  • створювати осмислені текстові патерни (просту синтаксичну структуру без семантики),

  • відтворювати ритмічні аудіопослідовності.

Чому це важливо

Це перший масштабний кейс генеративної ШІ-моделі, яка:

  • не копіює, не запам’ятовує і не відтворює зовнішні дані;

  • не ризикує порушувати авторські права;

  • потенційно може стати базою для етичного ШІ нового покоління, який не залежить від людського контенту;

  • відкриває шлях до систем, що формують власні фрейми реальності.

Професор Hiroshi Tanaka з TTIC підсумовує:

«Ми бачимо перші кроки до моделей, які не просто генеративні — вони самовиникаючі. Це фундаментальний зсув у тому, як ми розуміємо інтелект машин».

Що далі

Команда MIT планує:

  • розширити модель до рівня, здатного генерувати складні абстракції;

  • перевірити, чи може SelfInit-GEN розвивати «поняття»;

  • протестувати синтез контенту у тривимірному просторі без жодного датасета.

Для галузі це може означати появу нового покоління ШІ-систем — таких, що не залежать від даних, а створюють свою внутрішню семантику.

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *