Когда ИИ "опускается", наступает ли время, когда Web3 проявит свои способности?

PANews
AWS5,88%
HQ-6,38%

Автор: Хаотян

Недавно, наблюдая за индустрией ИИ, я заметил все более «углубляющуюся» тенденцию: от первоначального сосредоточения вычислительной мощности и согласия о «больших» моделях возникла ветвь, ориентированная на локальные малые модели и вычисления на краю.

Это видно из того, что Apple Intelligence охватывает 500 миллионов устройств, Microsoft выпустила специализированную модель Mu с 3,3 миллиарда параметров для Windows 11, а также из операций «отключения от сети» роботов Google DeepMind.

Что будет отличаться? Облачный ИИ зависит от масштаба параметров и объема тренировочных данных, а способность тратить деньги является ключевым конкурентным преимуществом; локальный ИИ полагается на оптимизацию инженерных процессов и адаптацию к сценарию, что позволит сделать дальнейшие шаги в защите конфиденциальности, надежности и практичности. (Основные проблемы иллюзий универсальных моделей будут серьезно влиять на проникновение в специализированные сценарии)

На самом деле, это создаст большие возможности для web3 AI. Ранее, когда все соревновались в способности к «универсализации» (вычисления, данные, алгоритмы), их естественным образом монополизировали традиционные крупные компании. Попытка конкурировать с такими компаниями, как Google, AWS, OpenAI, под предлогом децентрализации - это просто бред, ведь не хватает ни ресурсных преимуществ, ни технологических преимуществ, а также отсутствует пользовательская база.

Но в мире локализованных моделей и облачных вычислений ситуация для сервисов блокчейн-технологий становится совершенно иной.

Когда AI модели работают на устройствах пользователей, как можно доказать, что выходные результаты не были изменены? Как реализовать сотрудничество моделей, защищая при этом конфиденциальность? Эти вопросы как раз являются сильной стороной технологии блокчейн…

Обратите внимание на некоторые новые проекты, связанные с web3 AI, такие как недавно запущенный @Gradient_HQ протокол передачи данных Lattica, в который Pantera инвестировала 10 миллионов долларов, чтобы решить проблему монополии данных и черного ящика централизованных AI-платформ; устройство для считывания мозговых волн @PublicAI_ HeadCap​​ собирает реальные данные человека и создает «уровень искусственной проверки», который уже принес 14 миллионов долларов дохода; на самом деле, все они пытаются решить проблему «достоверности» локального AI.

Одной фразой: только когда ИИ действительно “проникнет” в каждое устройство, децентрализованное сотрудничество станет необходимостью, а не просто концепцией?

#Web3AI проекты вместо того, чтобы продолжать конкурировать на универсальной арене, лучше серьезно подумать о том, как обеспечить инфраструктурную поддержку для локализованной волны AI?

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев