1月27日消息,以太坊在Fusaka升级后出现新的技术隐忧。研究机构MigaLabs发布报告称,随着Layer2网络向以太坊主网提交的blob数据包数量上升,网络在处理高数据量区块时更容易出现失败或被丢弃的情况,这表明当前以太坊尚未完全适配更高规模的数据吞吐需求。
Fusaka升级于2025年12月部署,核心目标是为Layer2扩容提供更高的数据通道。在升级前,每个区块最多只能承载9个blob,而升级路线图允许容量最终提升至原来的8倍。以太坊基金会高管Alex Stokes在当时的发布会上也曾坦言,这是一项非常新的技术,网络在极端条件下的表现仍然存在不确定性。
升级后不久,以太坊开发者便开始逐步调高blob上限。首次调整将容量提高至15个,1月7日的第二次更新进一步提升至21个。然而,MigaLabs发现,真正接近上限的高blob区块,往往会导致后续区块传播失败或延迟,反而对网络稳定性形成压力。
MigaLabs创始人Leonardo Bautista Gomez表示,这并非危言耸听,而是希望提醒以太坊核心开发者,在尚未完全理解网络反馈之前,不应继续盲目提高blob容量。他认为,高数据负载下,分布式节点在传播大量信息时本身就存在物理和网络瓶颈。
以太坊基金会旗下的PandaOps团队也观察到了类似现象。工程师Sam Calder-Mason指出,其中一部分问题可能与“时间博弈”有关,即验证者为了提高MEV收益而延迟区块发布,从而放大了高blob区块带来的不稳定性。不过他也强调,目前整体网络并未处于危险状态,但在继续扩容前,需要先部署更高效的数据传播机制。
这场围绕以太坊blob与Layer2扩容的技术博弈,正成为2026年以太坊路线图中的关键议题。如果不能在吞吐量与稳定性之间取得平衡,未来的以太坊数据层扩张,可能会比预期更具挑战。
相关文章