Нещодавно багато майстрів аналізу даних досліджують деякі складні проєкти на блокчейні. Один із протоколів зберігання викликає особливу зацікавленість у спільноті, тож давайте розглянемо його з точки зору даних.
**Активність: реальна робота мережі**
Після запуску основної мережі кількість незалежних акаунтів вже перевищила 55 000, за останню добу додалося понад 4000. Це ще не найнаочніше — у блокчейні зафіксовано понад 1,78 мільйона записів подій запису даних. Це не просто перекази — це реальні операції з зберігання та верифікації, що свідчить про те, що мережа не просто працює порожньо, а має справжню активність.
З точки зору розподілу вузлів, 111 зберігаючих вузлів обслуговуються 103 незалежними операторами, що особливо важливо — незалежність безпосередньо впливає на здатність протистояти цензурі та стабільність системи. Вузли вже розгорнуті у 17 країнах світу, наразі підключено 53 активні проєкти.
**Модель витрат: скільки можна зекономити**
Лише активність недостатньо, потрібно враховувати економічний аспект. Порівняно з технологією кодування з виправленням помилок та традиційним повним копіюванням, витрати на зберігання можна знизити на 70%. Це велика перевага для додатків, що працюють з великими обсягами даних.
Що стосується ефективності, традиційне повне копіювання — базовий показник 25-кратний, звичайне кодування з виправленням помилок — 3-кратний, а цей проєкт досягає 4,5-кратного. Для сценаріїв, що потребують обробки величезних обсягів даних, таких як тренування AI або ринок прогнозів, ця економія буде особливо помітною.
**Технічний потенціал: прокладаємо шлях для наступного покоління додатків**
Ідея розбиття даних на фрагменти з глобальним розподілом цікава тим, що вона не для холодного резервного копіювання, а для підтримки швидкого, реального часу доступу до даних. Така архітектура природно підходить для потреб AI-моделей у "пальному" паливі для обробки даних.
Проєкт уже співпрацює з професійною інфраструктурою AI, створюючи інтегровану платформу для зберігання та тренування моделей. Якщо вдасться інтегрувати ринок прогнозів, ця інфраструктура може стати прихованою опорою AI-економіки вже у 2026 році.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Зменшення витрат на коди корекції помилок на 70%? Ця цифра трохи підозріла, все залежить від конкретних застосувань, не знову ж таки з презентаційних даних.
Переглянути оригіналвідповісти на0
SandwichVictim
· 01-21 13:46
Зниження витрат на 70%? Еге ж, ці дані звучать так, ніби з презентації, а чи вони справді зафіксовані в блокчейні?
Переглянути оригіналвідповісти на0
GasGrillMaster
· 01-21 13:41
5.5万 акаунтів так швидко? Потрібно стежити за реальними поставками команди
---
Код зменшення витрат на 70%, звучить круто, але боюся, що знову архітектура PPT
---
У 17 країнах світу розгорнуті вузли, чи справді так багато незалежних операторів купують?
---
Якщо вдасться знизити витрати на тренування AI, це дійсно має потенціал
---
Чи стане прогнозний ринок підтримкою у 2026 році? Спершу почекаємо, які кейси з’являться цього року
---
178 тисяч записів подій звучать багато, але потрібно дивитися, чи це реальні потреби, чи внутрішній накрут
---
Підтримка 103 незалежних операторів — добре для розподілу ризиків, але боюся, що згодом мотивація знизиться і люди розійдуться
---
Якщо ця інтегрована платформа справді запрацює, вона зможе зайняти нішу у секторі інфраструктури AI
---
Переваги у витратах всі можуть хвалити, головне — реферальний рівень реальних користувачів
Переглянути оригіналвідповісти на0
probably_nothing_anon
· 01-21 13:40
Код виправлення та видалення зменшує витрати на 70% — у цьому дійсно є сенс, але чесно кажучи, 55 000 акаунтів поки що нічого особливого не показують.
Найцікавіше — це ті 103 незалежні оператори, саме вони створюють відчуття децентралізації.
Щодо інфраструктури штучного інтелекту, ніхто не може сказати, яким вона буде у 2026 році, але зараз дані дійсно демонструють прогрес.
А як називається ця протокол, що я забув? Чому його ще не згадали?
Нещодавно багато майстрів аналізу даних досліджують деякі складні проєкти на блокчейні. Один із протоколів зберігання викликає особливу зацікавленість у спільноті, тож давайте розглянемо його з точки зору даних.
**Активність: реальна робота мережі**
Після запуску основної мережі кількість незалежних акаунтів вже перевищила 55 000, за останню добу додалося понад 4000. Це ще не найнаочніше — у блокчейні зафіксовано понад 1,78 мільйона записів подій запису даних. Це не просто перекази — це реальні операції з зберігання та верифікації, що свідчить про те, що мережа не просто працює порожньо, а має справжню активність.
З точки зору розподілу вузлів, 111 зберігаючих вузлів обслуговуються 103 незалежними операторами, що особливо важливо — незалежність безпосередньо впливає на здатність протистояти цензурі та стабільність системи. Вузли вже розгорнуті у 17 країнах світу, наразі підключено 53 активні проєкти.
**Модель витрат: скільки можна зекономити**
Лише активність недостатньо, потрібно враховувати економічний аспект. Порівняно з технологією кодування з виправленням помилок та традиційним повним копіюванням, витрати на зберігання можна знизити на 70%. Це велика перевага для додатків, що працюють з великими обсягами даних.
Що стосується ефективності, традиційне повне копіювання — базовий показник 25-кратний, звичайне кодування з виправленням помилок — 3-кратний, а цей проєкт досягає 4,5-кратного. Для сценаріїв, що потребують обробки величезних обсягів даних, таких як тренування AI або ринок прогнозів, ця економія буде особливо помітною.
**Технічний потенціал: прокладаємо шлях для наступного покоління додатків**
Ідея розбиття даних на фрагменти з глобальним розподілом цікава тим, що вона не для холодного резервного копіювання, а для підтримки швидкого, реального часу доступу до даних. Така архітектура природно підходить для потреб AI-моделей у "пальному" паливі для обробки даних.
Проєкт уже співпрацює з професійною інфраструктурою AI, створюючи інтегровану платформу для зберігання та тренування моделей. Якщо вдасться інтегрувати ринок прогнозів, ця інфраструктура може стати прихованою опорою AI-економіки вже у 2026 році.