У MIT створили нейромережу, яка навчається без наборів даних і генерує новий контент з «нульової інформації»
Команда з Massachusetts Institute of Technology (MIT CSAIL) спільно з дослідниками з Toyota Technological Institute at Chicago (TTIC) представила одну з найрадикальніших моделей 2025 року: генеративну систему SelfInit-GEN, здатну навчатися без традиційних датасетів — фактично «з нуля».
Робота була презентована 13 листопада на щорічній конференції NeurIPS 2025 Workshop on Data-Free Learning.
Що це означає
У класичному генеративному моделюванні системи навчаються на великих обсягах даних — від сотень гігабайт до трильйонів токенів. SelfInit-GEN натомість:
-
не використовує жодних зовнішніх наборів даних,
-
не завантажує навчальні вибірки з інтернету,
-
розвиває власні внутрішні «первинні патерни», які формуються з випадкових шумових сигналів,
-
поступово «самоструктурує» інформацію, створюючи внутрішню модель світу.
Професор Chung-Yi Lin (MIT CSAIL), один з авторів роботи, пояснює:
«Ми наблизились до моделі, яка не повторює світ, а конструює його з нульового стану. Це не просто навчання без даних — це спосіб створення базової онтології всередині нейромережі».
Як працює SelfInit-GEN
Система використовує трипоетапний цикл:
-
Self-Init Phase
Мережа ініціює внутрішні шумові структури, що випадково поєднуються у патерни.
-
Internal Symmetry Discovery
Нейромережа виявляє закономірності в тому, що сама й згенерувала — фактично виконує «самоаналіз».
-
Generative Emergence
Модель виробляє контент (зображення, текстові структури, звукові хвилі), який не наслідує жодної існуючої бази даних.
Згідно з технічним звітом, модель змогла:
-
генерувати базові форми й силуети на рівні early-vision моделей,
-
створювати осмислені текстові патерни (просту синтаксичну структуру без семантики),
-
відтворювати ритмічні аудіопослідовності.
Чому це важливо
Це перший масштабний кейс генеративної ШІ-моделі, яка:
-
не копіює, не запам’ятовує і не відтворює зовнішні дані;
-
не ризикує порушувати авторські права;
-
потенційно може стати базою для етичного ШІ нового покоління, який не залежить від людського контенту;
-
відкриває шлях до систем, що формують власні фрейми реальності.
Професор Hiroshi Tanaka з TTIC підсумовує:
«Ми бачимо перші кроки до моделей, які не просто генеративні — вони самовиникаючі. Це фундаментальний зсув у тому, як ми розуміємо інтелект машин».
Що далі
Команда MIT планує:
-
розширити модель до рівня, здатного генерувати складні абстракції;
-
перевірити, чи може SelfInit-GEN розвивати «поняття»;
-
протестувати синтез контенту у тривимірному просторі без жодного датасета.
Для галузі це може означати появу нового покоління ШІ-систем — таких, що не залежать від даних, а створюють свою внутрішню семантику.