{"version":"https://jsonfeed.org/version/1.1","title":"untitled","home_page_url":"https://my-blog-dxh.pages.dev","feed_url":"https://my-blog-dxh.pages.dev/json/","description":"","icon":"https://my-blog-dxh.pages.dev/assets/default/channel-image.png","favicon":"https://my-blog-dxh.pages.dev/assets/default/favicon.png","language":"en-us","items":[{"id":"4sTd6yKE1t-","title":"Agentic AI","attachments":[{"url":"https://pub-44340f9ff0b44dec9808c14d0432498d.r2.dev/my-blog/production/media/document-ea03de3259554aec257cd193312bcf0b.pdf","mime_type":"application/pdf","size_in_byte":46299893}],"url":"https://blog.kvmaker.cn/i/agentic-a-4sTd6yKE1t-/","content_html":"<h1><strong>AWS Hyperplane 技术深度分析</strong></h1><h2><strong>1. Hyperplane 的技术实现原理</strong></h2><h3><strong>系统架构与设计目标</strong></h3><p>AWS Hyperplane是AWS内部构建的网络功能虚拟化（NFV）平台，旨在支撑多个云网络服务，包括网络负载均衡器（NLB）、NAT网关、PrivateLink、Transit Gateway 等  。Hyperplane 于 2017 年在 re:Invent 大会上首次公开亮相，但早在 2015 年就已投入生产使用 。它作为 Amazon EC2 网络架构的一部分“嵌入”于底层网络中，为这些高级服务提供统一的分布式数据平面支持 。其设计目标是实现<strong>大规模、高吞吐、低延迟</strong>的网络包处理能力。例如，一个 NLB 实例可支撑每秒数百万次请求而保持极低延迟 。Hyperplane 通过提供<strong>单一静态IP</strong>（每可用区一个）来服务客户负载，实现对客户端透明的水平扩展能力 。为了避免成为系统瓶颈，Hyperplane 采用<strong>多租户共享集群</strong>架构：所有用户的实例共用一支 Hyperplane 节点池，但逻辑上又彼此隔离，呈现出类似独占设备的使用体验 。这种架构通常以<strong>单元化(cell-based)*</strong>*方式跨多个可用区部署，既保证了弹性伸缩，又缩小了故障影响范围。高可靠性同样是 Hyperplane 的核心目标——系统高度冗余，默认假设节点随时可能失效并设计为持续“修复模式”运行，即不停监测和快速恢复故障** <strong>。正因如此，当少数节点发生故障时，其余节点能够无缝接管流量，整个系统所承担的工作几乎不变，从而体现出一定的“反脆弱性”</strong> <strong>。概括来说，Hyperplane 的架构追求在*</strong>*大规模多租户环境下的稳定、弹性和高性能**：采用水平扩展的分布式节点池提供 Tb 级别的总吞吐容量，并通过冗余和容错设计来确保服务的持续可用 。</p><h3><strong>数据面与控制面组件</strong></h3><p>Hyperplane 将<strong>数据面（Data Plane）和控制面（Control Plane）*</strong>*相分离，以提高系统可伸缩性和可靠性。这种划分类似于路由器领域的数据面/控制面分离思想：数据面由实际处理用户网络流量的分布式设备组成，控制面则负责管理配置和状态分发** <strong>。在 Hyperplane 中，数据面是一组跨多个可用区部署的*</strong>*Hyperplane节点**（本质上是高性能 EC2 实例），它们承担实际的包处理、NAT转换和负载转发等功能。控制面则是一组管理服务，负责维护所有用户的配置（如每个 NLB、NAT网关、PrivateLink端点的路由信息、规则等），并将这些配置下发同步到数据面节点 。</p><p>为避免控制面与庞大的数据面之间直接高频交互造成过载，Hyperplane 的控制面采用了一种<strong>静态稳定性（Static Stability）*</strong>*策略来分发配置：以 pull 模式替代 push 模式** <strong>。具体来说，控制面将用户配置更新集中写入 Amazon S3 上的配置文件，而不是每有改动就通过工作流推送给所有节点</strong>  <strong>。每个数据面节点则按照固定频率（每隔几秒）从 S3 拉取最新配置文件并加载，即使配置无变化也重复这一过程</strong> <strong>。这样一来，即便某段时间有大量配置变更，节点的查询频率和处理模式也保持恒定，从而避免了峰值时期控制面推送风暴可能导致的过载</strong> <strong>。这种*</strong>*“恒定工作模式”确保了系统在任意时刻均以稳定速度执行相同的操作，消除了负载陡增时控制面、数据面的耦合振荡，提高了整体可靠性**  <strong>。从实现细节看，控制面将配置存储在分布式数据库（如 DynamoDB）中，并由后台任务汇总后写入 S3 文件</strong> <strong>；数据面节点定期下载S3文件并应用其中配置。由于节点始终处理最新配置，即使控制面本身发生故障，数据面也能在相当长时间内用*</strong>*最后一次下发的配置独立运行**，从而具备静态稳定性和故障隔离能力 。</p><p>值得一提的是，Hyperplane 利用了 AWS Nitro 系统提供的先进网络能力来实现控制面与数据面的解耦和资源共享。Nitro 架构允许将<strong>弹性网络接口（ENI）跨账户附加</strong>到实例上，这正是 Hyperplane 将自身节点“插入”用户VPC的关键机制 。每当创建一个需要 Hyperplane 支持的资源（如NLB、NAT网关等），AWS 会在客户VPC中预置一个由服务账户拥有的 ENI，并将其附加到Hyperplane数据面实例上 。这样，该 ENI 就成为该资源在用户VPC内的锚点，承载着资源的流量出入。控制面负责在创建资源时设置好这些 ENI（包括安全组、子网等），数据面则在 ENI 附接后将其纳入自身管理范畴。<strong>AWS Nitro 系统</strong>提供了高速包处理和弹性网络适配的硬件加速能力（如专用的 Nitro Card），使 Hyperplane 节点能够以极高的包转发率处理流量，并确保跨账户 ENI 通信的安全隔离 。总之，Hyperplane 控制面通过 <strong>DynamoDB + S3</strong> 实现配置的可靠分发，数据面通过 <strong>跨账户ENI + Nitro加速</strong> 来高效接管用户流量，二者协同实现了大规模分布式网络功能的稳定运行  。</p><h3><strong>网络包处理流程（包括 NAT 映射、多租户隔离等）</strong></h3><p>在 Hyperplane 的数据面内部，网络数据包按<strong>流（flow）进行处理，确保状态一致性和多租户隔离。对于负载均衡（如 NLB）场景，Hyperplane 需要跟踪每个 TCP/UDP 连接，以便将同一连接的所有数据包发送到正确的目标后端实例，并保证连接粘性。这要求 Hyperplane 在多节点分布式环境下实现连接状态的一致</strong>：AWS 工程团队为此设计了高效的<strong>分布式连接跟踪和一致性哈希算法</strong>，解决了在多节点间进行大规模连接管理的难题 。简而言之，当客户的一个负载均衡收到新连接时，Hyperplane 会使用哈希等策略将该流分配给某个具体的数据面节点处理，并在该节点上保存该连接的状态（如源地址、目的地址、端口等）。此后，该连接往返的所有数据包（无论入站还是出站）都会经由同一节点处理，从而保证了 NAT 转换或转发决策的一致性。这种<strong>“单流固定节点”</strong>的路由方式通过内部一致性协议或共享内存等机制实现，以避免多节点竞争处理同一流导致混乱 。AWS 相关专利（US 11115322）也描述了类似的 <strong>“有状态网络路由”</strong> 技术：拦截客户端与服务器之间的连接，将来自两端的包都定向到同一个目标网络设备处理 。这正是 Hyperplane 实现 TCP/UDP 流粘性的基础 。</p><p>对于 NAT 网关场景，数据面节点需要执行网络地址转换：将私有子网主机发出的流量源地址转换为 NAT 网关的弹性公网IP，并维护每个连接的映射表。当 Internet 返回流量时，再根据映射将目的地址翻译回原内网主机。Hyperplane 通过上述有状态路由机制保证了<strong>NAT映射的一致性</strong>：每个私网主机与外部目标的连接由某个节点专职处理并保存转换状态，回复流量会被自动导回该节点，从而正确应用NAT回写。由于 Hyperplane 在每个可用区的 NAT 网关都采用<strong>单一固定的弹性IP</strong>，而幕后实际由多台节点共同支撑，因此 AWS 会使用一种类似 Anycast 或客户端透明分流的技术，将发往该IP的流量在内部网络中分配给不同节点 。无论底层有多少节点，外部看起来 NAT 网关服务都通过一个IP对外提供，且能够水平扩展处理能力而无需更改IP 。这一模式同样应用于 NLB：NLB在每个AZ只有一个弹性网络接口及其静态IP，背后挂载了多个高性能 Hyperplane 节点，客户端始终命中静态IP，而 Hyperplane 会透明地在节点间分发负载 。</p><p><strong>多租户隔离</strong>方面，Hyperplane 确保不同用户、不同资源的流量和状态彼此独立。虽然物理节点是共享的，但系统在软件层面对每个资源实例（每个NAT网关、每个NLB等）维护单独的路由和映射表。例如，Hyperplane 数据面会为每个 NLB 实例分配一个内部标识或独立的监听端口范围，以区分不同用户的连接，确保不会将 A 用户的流量错误地转发到 B 用户的后端 。另外，每个资源使用独立的 Hyperplane ENI 进入用户VPC，该 ENI 承载特定资源的IP和安全组配置，相当于为该资源划分出<strong>专用的网络接口上下文</strong> 。Hyperplane 节点在处理数据包时，会根据目的ENI或目标IP将其映射到对应的资源实例空间中，应用只属于该实例的NAT或转发规则。这保证了即使多个租户的流量在同一物理机器处理，也不会混淆或越权访问。</p><p>整体的数据包流程可以概括如下：当外部流量到达某服务（例如一个NLB的静态IP），首先经由 VPC Edge Router 查找路由，被引导至 Hyperplane 在该 AZ 内的 ENI；数据包进入某个 Hyperplane 节点，由其根据连接四元组确定属于哪个后端目标并转发。同时，该节点记录连接状态。当后端服务器回应时，返回包经由 VPC 路由再次到达 Hyperplane ENI，并由同一节点拦截，根据先前保存的状态将源/目的地址转换（NAT 的情形）或直接路由回客户端。整个过程中，Hyperplane 节点集群协同确保单连接单节点处理、有状态对称转发，从而实现了<strong>高性能且正确的 NAT/LB 数据面</strong>。如果某个节点故障，Hyperplane 控制面会察觉并将受影响的资源流量重新分配到其它节点，新连接会由健康节点接管。而已有故障节点上的连接可能中断，但对于许多幂等性通信，客户端重试即可由存活节点建立新连接服务。借助快速故障检测和冗余节点池，Hyperplane 最大程度减少了单点故障对用户流量的影响。</p><h3><strong>与 AWS Nitro 系统、弹性网络接口（ENI）、EC2 实例的交互机制</strong></h3><p>Hyperplane 的实现与底层 AWS Nitro 系统和 EC2 网络设施紧密结合。首先，每个 Hyperplane 数据面节点运行在 AWS EC2 实例之上（可能是经过优化的自有实例类型），利用 Nitro 提供的弹性裸机性能和虚拟化隔离。Nitro 架构允许 AWS 打破传统限制，实现<strong>跨账户附加 ENI</strong>这一关键能力 。例如，当用户在其VPC中创建一个 NAT Gateway 时，系统在用户VPC的选定子网中创建一个弹性网络接口（ENI），分配上私有IP和弹性IP，并<strong>跨账户</strong>附加到 AWS 管理的某台 Hyperplane 实例上 。从用户视角看，这个 ENI 就是 NAT Gateway 在该子网的“存在”，拥有自己的资源ID和安全组等；但实际上其背后挂载的是 Hyperplane 数据面。类似地，创建 NLB 时，每个可用区也会有一个 Hyperplane ENI（带有静态私有IP或弹性IP）附着到 Hyperplane 实例 。AWS Nitro 为这种 ENI 附加提供了底层支持，确保网络流量能够在用户VPC和Hyperplane实例之间高速、安全地传递。<strong>Nitro 卡</strong>承担了很多网络数据面的工作，例如包的虚拟交换、弹性队列等，使得 Hyperplane 实例无需过多占用主CPU就能处理海量流量。</p><p>与 EC2 实例的交互方面，Hyperplane 显得对用户几乎<strong>透明</strong>。客户部署在 EC2 上的应用若使用了这些网络服务（如通过 PrivateLink 访问一个 AWS托管服务，或通过 NAT网关访问公网），其数据包仍然从EC2出来后先经过VPC本地路由。如果目的地址匹配某个 Hyperplane ENI（例如属于 NAT Gateway 或 Interface Endpoint），Nitro/Ethernet层会将包直接送达附在该 ENI 上的 Hyperplane 实例，而不是发往某台客户实例 。由于 Hyperplane ENI 就在用户的二层网络中，数据包通过 AWS 内部网络即可抵达对应的 Hyperplane 节点，无需离开AWS物理基础设施。这种设计下，<strong>用户EC2实例无需感知 Hyperplane 的存在</strong>——它们只与 ENI 的 IP 通信，就如同与本地网关通信一般。但在幕后，EC2 实例的流量被 Nitro 系统重定向给了Hyperplane数据面进行处理。完成如地址转换、服务发现等功能后，再由 Hyperplane 将数据送至下一跳（可能是另一个VPC的ENI、AWS服务入口或Internet网关等）。举例来说，在 Lambda 函数通过 Hyperplane ENI 访问私有VPC资源的场景中，Lambda 执行环境位于服务VPC，通过 Hyperplane 隧道与客户VPC内的 ENI 建立通信 。整个过程利用 Nitro 的弹性网络能力，让多个 Lambda 执行环境共享少量 Hyperplane ENI 即可并发访问 VPC，显著降低了传统模式下每个函数创建ENI所带来的开销 。</p><p>综上，AWS Nitro 系统提供的<strong>高速网络I/O和安全隔离</strong>是 Hyperplane 实现的基石：Hyperplane 利用 Nitro 的硬件加速和轻量虚拟化，将自己的节点嵌入到用户的虚拟网络中，既保证了数据转发效率，又确保了与用户实例间的安全隔离。在用户看来，Hyperplane 只是以 ENI 形式存在的一种黑盒网络设备；而在 AWS 平台内部，它通过 Nitro 与 EC2 紧密协作，实现了云上前所未有的<strong>灵活网络功能即服务</strong>能力。</p><h2><strong>2. Hyperplane 的应用场景</strong></h2><h3><strong>2.1 在 Network Load Balancer (NLB) 中的作用</strong></h3><p>Network Load Balancer 是 Hyperplane 最早支持的服务之一。NLB 工作在OSI第四层，提供高吞吐、低延迟的流量分发能力，能够处理数百万TPS的连接请求。Hyperplane 为 NLB 提供了<strong>核心的数据转发平面</strong>：当用户创建一个 NLB 时，每个启用的可用区会分配一个由 Hyperplane 托管的弹性网络接口（拥有一个静态IP地址）  。所有发往该静态IP的流量会进入 Hyperplane 网络平面，由其在幕后路由到负载均衡器实际的后端目标。由于每个可用区的 NLB 节点只有一个固定IP，Hyperplane 必须在不改变客户端连接IP的情况下实现水平扩展。它通过将该 IP 映射到<strong>多个高性能节点实例</strong>来实现：对客户端而言，NLB 在一个AZ始终只有一个目标IP；但在 AWS 内部，多个 Hyperplane 节点共同对外服务这个 IP，客户端连接会被均衡地分布到这些节点上处理 。这一设计的直接好处是<strong>静态IP负载均衡</strong>：无论流量增长到多大，都无需在DNS中添加更多IP，NLB的IP不变，而 Hyperplane 可以动态增加节点来承载更多流量。NLB 因此非常适合需要硬编码IP或要求IP不变的场景 。</p><p>Hyperplane 赋予 NLB <strong>卓越的可扩展性和性能</strong>。在流量模式变化时，Hyperplane 节点池能够快速弹性伸缩：NLB默认起步就有约 3 Gbps 的容量，并可根据需要每分钟增加 3 Gbps 吞吐 。这种弹性扩容完全由 Hyperplane 在后台完成，对用户透明且无需干预。此外，由于 Hyperplane 采用分布式设计，NLB <strong>天然具备多可用区冗余</strong>。每个AZ的 Hyperplane ENI和节点集群相互独立，某一AZ故障并不影响其他AZ的NLB节点，确保负载均衡服务的高可用。Hyperplane 对连接的高效跟踪也使 NLB 能够稳定处理长连接和高并发。正如之前提及的，Hyperplane 使用一致性哈希等算法保证每条连接始终由同一节点处理 。这意味着即使 NLB 在内部是由许多节点支撑，也不会出现连接在节点间来回漂移的问题，保证了会话的一致性和高效性。Amazon Builders’ Library 专文指出，NLB 的实现正是建立在 Hyperplane 之上，Hyperplane 通过每秒轮询 S3 上的配置来获取最新的目标实例列表，实现了<strong>毫秒级别的配置同步</strong>和<strong>恒定性能</strong> 。同时，Hyperplane <strong>多租户隔离</strong>的特点也应用于 NLB：每个 NLB 实例的流量在节点处理时都有独立的上下文，不同用户的NLB互不干扰 。</p><p>综上，借助 Hyperplane，NLB 实现了传统硬件负载均衡器难以企及的<strong>大规模弹性</strong>和<strong>高可用性</strong>。它能够在不更换IP的情况下自动扩展容量，在瞬息万变的流量条件下保持低延迟 。Hyperplane 的分布式冗余让 NLB 没有单一故障点：任一节点故障时，新连接会自动由集群中其它节点接管，已有连接的中断也能通过客户端重连很快恢复。可以说，Hyperplane 是 NLB 背后的“隐形引擎”，使得用户无需操心容量或可靠性问题，NLB 就能<strong>“开箱即用”地扩展到所需的规模</strong> 。</p><p><em>图 1：Hyperplane 在 AWS 内部实现 VPC 间的负载均衡/NAT 功能示意（以 Lambda 函数访问用户VPC资源为例）。左侧Lambda所属的AWS服务VPC通过Hyperplane隧道将流量传送到右侧客户VPC的Hyperplane ENI，再由Hyperplane节点进行NAT转换和路由，实现跨VPC的高速互通</em>  <em>。同理，NLB/NAT 网关等也是通过在每个VPC的每个AZ挂载一个Hyperplane ENI，由Hyperplane节点池承担实际数据转发来运作的。该机制保证了单一IP对外、幕后水平扩展和多租户隔离。</em></p><h3><strong>2.2 在 AWS PrivateLink 中的应用</strong></h3><p>AWS PrivateLink 提供了一种在私有网络中访问 AWS托管服务或第三方服务的机制，使流量不经过公网即可在消费者VPC与服务提供方之间传输。Hyperplane 是实现 PrivateLink 的关键支撑技术：它扮演了 PrivateLink “底层载体”的角色。具体而言，当用户在其VPC中创建一个<strong>接口端点（Interface Endpoint）*</strong>*来访问某AWS服务时，系统会在用户VPC里生成一个由 Hyperplane 托管的 ENI（它有一个来自该VPC子网的私有IP，通常还会在Route 53解析出对应的服务私有域名）。当用户的EC2实例向这个 AWS 服务的私有域名发起请求时，请求报文的目的IP即是上述 ENI 的私有地址，报文通过VPC子网路由直接来到 Hyperplane ENI。此时，Hyperplane 数据面发挥作用：它将用户报文封装后通过AWS内部网络转发给目标服务。AWS官方专利（US 11792041）详细描述了这一流程：Hyperplane 充当隧道中介，将用户VPC发出的原始数据包（目的地址是服务的公网IP，源是客户实例私有IP）进行封装，添加一个标识源VPC的头部，然后将封装包发送到服务端所在的节点处理** <strong>。服务端（可能是AWS自身的服务入口，或对方VPC的NLB）收到并解封后，就能获取到原始请求并进行响应。响应报文再经由Hyperplane反向封装，送回客户VPC的接口端点ENI。这种机制实现了客户VPC与服务之间的*</strong>*私有链接**：对用户而言，访问服务就像访问本地IP一样，而实际流量在 Hyperplane 的隧道中穿行，未经过Internet 。</p><p>借助 Hyperplane，PrivateLink 可以同时服务于<strong>众多租户和服务</strong>。每个客户VPC针对每个目标服务都会有独立的接口ENI和私有IP，Hyperplane 利用封装头中的 VPC标识和目的服务信息来区分不同客户/不同服务的流量 。因此，哪怕许多客户都访问同一AWS服务，流量在Hyperplane内部依然能够被正确隔离路由，<strong>不会混淆或越权</strong>。Hyperplane 的高带宽能力也保证了 PrivateLink 通道的性能：因为数据不绕经公网，而是走AWS内网，延迟和吞吐都很优良。此外，Hyperplane 提供的冗余让 PrivateLink 通常具有接近于底层网络的可用性——其 ENI 和节点在每个AZ都是冗余的，服务提供方那边也往往有NLB的冗余。因此，整个PrivateLink通信路径没有明显的单点故障。以访问 S3 接口端点为例，用户请求通过Hyperplane在AWS网络骨干上路由到S3服务的一组弹性网卡上（S3 每个AZ都有Hyperplane支持的服务网卡用于接收 PrivateLink 流量），确保即使S3某单台设备故障，其他设备也能及时接管。在私有链接建立过程中，Hyperplane 控制面和数据面协同还要完成<strong>服务发现和连接初始化</strong>：比如当接口端点建立时，会在Hyperplane系统中注册对应需要连接的服务目标。随后数据面才能识别封装包该送往哪。AWS Builders’ Library 中提到，Hyperplane 最初尝试过用事件驱动的方式将配置下发给节点处理PrivateLink等配置，但后来改为所有节点定期从S3拉取更新配置  。这也意味着，当用户创建或修改接口端点时，Hyperplane 控制面会将该变化写入配置文件，几秒钟内所有节点就会知道新的服务映射，从而可以开始转发流量 。通过这种方式，PrivateLink 可以在用户发起创建后<strong>非常快地生效</strong>，且后续配置变化也能一致传播。总的来说，Hyperplane 为 PrivateLink 提供了<strong>可靠的承载网络</strong>：它让私有连接无需客户操心底层隧道如何建立、维护，AWS 负责在Hyperplane层实现<strong>高扩展、透明</strong>的隧道路由。从网络角度看，Hyperplane 扮演了大规模多租户 VXLAN/Geneve 网关的角色，只不过其智能和能力远超传统网关，能够自动适应云环境的规模和动态变化。PrivateLink 因此成为跨VPC、跨账户访问服务的利器，而这背后正是 Hyperplane 技术的灵活运用。</p><h3><strong>2.3 在 AWS Transit Gateway、VPC Lattice 等服务中的应用</strong></h3><p>Hyperplane 的通用网络虚拟化能力也被进一步应用在其它高级网络服务中，其中包括 AWS Transit Gateway (TGW) 和 Amazon VPC Lattice 等。<strong>Transit Gateway</strong> 是 2018 年推出的云中枢路由服务，允许在一个集中网关上实现多达成千上万个 VPC、本地VPN连接的互连。根据 AWS 介绍，Transit Gateway 完全构建在 Hyperplane 之上 。具体而言，每个 Transit Gateway 在区域内实际上由一组 Hyperplane 节点组成，这些节点类似一个高可用路由集群。每当有 VPC 或VPN附件接入 TGW，AWS 就会在该附件所在AZ将流量引导至 Hyperplane 节点进行转发。Transit Gateway 的路由表由控制面管理，但数据转发（包括封装/解封、路由查找）全部由 Hyperplane 数据面线速完成。这使 TGW 具备了惊人的扩展性：官方数据显示，每个 TGW 可支持高达 5000 个 VPC 连接和 10000 条路由 ；带宽方面，每个连接（例如 VPC 附件）可以使用高达 50 Gbps 的吞吐 。这些大规模能力的实现正是因为底层有 Hyperplane 提供弹性扩容。一方面，Hyperplane 节点可以根据流量自动增加，确保即使许多 VPC 同时大量通信，网关也不成为瓶颈；另一方面，Hyperplane 天生的多AZ冗余让 TGW 实现了高可用设计——每个连接可以跨多个AZ冗余通信路径。当某AZ的节点故障或网络不通时，TGW 会自动切换路径而用户无感知。值得注意的是，Transit Gateway 内部流量通常采用封装传输（类似第三层的GRE或VXLAN隧道），以在隔离不同VPC地址空间的同时实现转发。Hyperplane 节点负责对报文加解封装并查找下一跳路由，这与前述 PrivateLink 的封装思路如出一辙 。AWS一项专利（US 11770364）描述了<strong>“虚拟网络环境中的私网对等连接”</strong>方案，提到通过一个中心服务动态建立跨客户私有网络的端口和隧道，并进行路由信息交换  ——这正是 Transit Gateway 的工作原理摘要。这进一步印证了 Hyperplane 在 TGW 中的作用：Hyperplane 提供了一个可编程的分布式路由器平台，AWS 基于它实现了TGW丰富的路由和隔离特性。</p><p><strong>Amazon VPC Lattice</strong> 是最近推出的新服务，定位于在应用层实现跨VPC、跨账户的服务间通信和发现。Lattice 提供了类似服务网格的功能，例如服务命名、流量路由、请求级别负载均衡和鉴权等，但却不要求用户部署传统服务网格代理。虽然 Lattice 的很多高级功能作用于应用七层，但它底层的跨网络流量转发依然离不开 Hyperplane。可以认为，Lattice 在许多方面融合了 PrivateLink 和内部负载均衡的技术：当一个客户端需要调用另一个VPC里的服务时，Lattice 会为这次调用在客户端VPC和服务VPC之间建立一条<strong>Hyperplane支持的路径</strong>。实际上，每个加入 Lattice 服务网络的VPC都会有一些隐含的 Hyperplane 组件：例如，一个所谓的 “目标导向器” 或 “服务入口” 将由 Hyperplane ENI 来承载，从而接受来自其他VPC的调用流量。由于 Lattice 允许不同账户的VPC无缝互通，它需要底层网络具有<strong>多租户隔离和大规模转发</strong>能力，这正是 Hyperplane 的强项。可以推测，当客户端向某个 Lattice 服务发起请求时，这请求可能被解析到本地的一个 Hyperplane ENI（类似 PrivateLink 接口端点的作用），然后 Hyperplane 将该请求封装并传输到目标服务所在VPC的 Hyperplane 节点，最后交付给服务实例。如果服务需要响应，同样路径返回。整个过程中，Lattice 会在应用层做一些策略控制（如流量分割、鉴权），但实际数据搬运仍由 Hyperplane 来完成。凭借 Hyperplane，Lattice 可以避免让用户自行配置复杂的VPC Peering或Service Mesh，大幅简化架构。尤其在大规模微服务场景下，使用 Lattice 意味着开发者不用关心网络细节，服务间通信的可靠性和吞吐由 AWS 的 Hyperplane 平台保证。Lattice 目前还处于推广初期，但从其设计初衷来看，很大程度上延续了 Hyperplane 平台的理念：即由 AWS 提供一个<strong>托管的、高度弹性的网络数据平面</strong>，让用户关注更高层的应用配置。这种理念下，无论是 Lattice 还是 TGW、PrivateLink，其底层实现都有异曲同工之妙。Hyperplane 在这些服务中所做的，都是将底层<strong>网络连接虚拟化、服务化</strong>：以软件定义的方式提供路由、交换、NAT、负载均衡等功能，并通过 AWS 的规模优势实现高性能和高可用。</p><h3><strong>2.4 Hyperplane 对高可用性、扩展性和性能的贡献</strong></h3><p>综合上述场景可以看到，Hyperplane 技术大幅提升了 AWS 网络服务的高可用性、可扩展性和性能指标：</p><ul><li><strong>高可用性（High Availability）</strong>：Hyperplane 天生是分布式冗余架构，没有单点故障。服务以<strong>集群</strong>形式运行在多个 AZ 的多台节点上 。即使某台服务器或某个AZ发生故障，流量可以立即由其它节点/区域接管，保证服务持续可用。比如 NLB/NAT 网关等在每个 AZ 都有独立的 Hyperplane 实例支撑，任一实例故障都会自动切换到该 AZ 内的备用节点或其他 AZ 的入口IP（对于NLB多AZ场景）继续服务。对于 PrivateLink 等，Hyperplane ENI 的故障很少发生；就算发生，AWS 也会在后台快速替换ENI并更新DNS，在短暂的连接重建后即可恢复通信。因此，Hyperplane 有力地支撑了 AWS 云上 <strong>99.99% 甚至更高 SLA</strong> 的网络服务。控制面和数据面的松耦合也提升了可用性：数据面节点可以在控制面不可达时自行运行相当长时间（使用最后已知配置），比如 Builders’ Library 提到的一种<strong>静态稳定性</strong>设计 。这意味着短暂的控制面故障不会影响已有连接的转发。总之，Hyperplane 将许多传统需要人工干预的高可用措施（如故障检测、流量切换）在云端自动化、软件化，实现了高度可靠的网络服务。</li><li><strong>扩展性（Scalability）</strong>：Hyperplane 通过水平扩展支持极高的流量规模。一方面，用户无需担心<strong>预热（pre-warm）*</strong>*负载均衡等操作——当流量飙升时，Hyperplane 会自动添加节点并及时调整容量**  <strong>。NLB 和 ALB 之前需要预热才能处理突发流量峰值，而有了 Hyperplane 后，NLB 已经能够在五分钟内实现带宽翻倍扩容，十分钟实现再翻倍，如此快速地线性扩展</strong>  <strong>（ALB/NLB官方提供的扩展率分别为每5分钟双倍增长等）。另一方面，在*</strong>*多租户<strong>场景下，Hyperplane 利用 AWS 全局规模优势，实现了弹性池化。对于某个用户的某项服务而言，其流量高峰可能短暂且相对其他用户并非同时发生，Hyperplane 可以在全局上调度资源：繁忙的服务占用更多节点，空闲的服务占用较少节点，从而实现资源的动态平衡。这种架构确保了 AWS </strong>整体基础设施利用率<strong>和</strong>单用户弹性<strong>的双赢。此外，Hyperplane 也支持 </strong>按需扩展到极限<strong>：当单个实例容量达上限时，可以进行“ELB分片”等模式拆分流量  。比如ALB/NLB官方建议在超大规模时使用多负载均衡器分担，这其实也是易于通过Hyperplane控制面配置实现的（将不同流量片段指派给不同Hyperplane资源）。正因有Hyperplane，AWS 才敢于对客户承诺诸如一个NLB可处理</strong>百万级新建连接每秒、百万并发连接**这类传统硬件难以企及的性能，而无需客户提前部署大量设备。值得一提，Transit Gateway 能支持5000+ VPC连接、每附件50Gbps带宽，也是 Hyperplane 强大扩展性的直接体现 。</li><li><strong>性能（Performance）</strong>：Hyperplane 在性能上贡献也非常显著。一方面，由于采用了专用的 Nitro 硬件加速和高端EC2实例，Hyperplane 节点处理网络报文的延迟非常低，很多情况下可以做到<strong>微秒级</strong>的额外延迟开销。这使得NLB可以提供接近直连的网络性能——相比ALB七层负载均衡的复杂处理，NLB的Hyperplane数据面几乎只做L4转发，延迟往往只有几毫秒甚至亚毫秒级别，吞吐可以充分利用网络带宽上限 。另一方面，Hyperplane 通过<strong>内置的负载分担和协议优化</strong>来提升性能。例如，在Hyperplane内部使用零拷贝转发、批量包处理等技术，单节点就能处理每秒百万级的数据包。而多节点并行工作后，总体吞吐线性提升。对于 NAT 网关，Hyperplane 保证了<strong>高并发连接和高PPS</strong>能力：用户常说“NAT Gateway是无限扩展的”，正是因为Hyperplane可以根据连接数自动增加跟踪表和处理单元。实际测试中，NAT Gateway 可以毫不费力地处理每秒几十万的并发连接建立，这远超过传统软件路由在单机上能做到的，背后正是分布式Hyperplane节点在协同工作。此外，在网络拥塞或峰值情况下，Hyperplane 的恒定工作模式避免了抖动和退化，这种<strong>平滑的性能表现</strong>对大规模应用非常关键 。最后，Hyperplane 也为 AWS 服务带来了<strong>统一的性能管理</strong>优势。因为不同服务共享同一套基础数据面技术，AWS 可以集中优化这一层。例如改进封装协议、高效利用缓存等等，会惠及PrivateLink、TGW、NLB等所有服务，提高整个云网络的性能底线。</li></ul><p>综上所述，AWS Hyperplane 通过创新的架构和实现，成为支撑 AWS 云上网络服务的“幕后英雄”。它<strong>像操作系统之于计算资源一样管理着网络资源</strong>，为负载均衡、NAT、私网连接等提供了统一的高可靠、高性能抽象。对用户而言，Hyperplane 是隐形的 —— 用户只看到稳定强大的云服务；但正是因为有 Hyperplane 的加持，这些云网络服务才能在大规模云环境下<strong>如同本地设备般运作，却又具有本地设备无法实现的弹性和易用性</strong>。</p><h2><strong>3. 相关专利分析</strong></h2><p>AWS 在开发 Hyperplane 技术过程中也申请了多项专利，公开了一些底层实现思路。以下选取几份与 Hyperplane 密切相关的专利，介绍其核心原理及其与 Hyperplane 系统的关系：</p><ul><li><strong>专利一：有状态网络路由器用于管理网络设备 (Stateful network router for managing network appliances)</strong> 。这项美国专利（US 11115322）揭示了一种有状态的数据流路由方法：网络路由器拦截第一主机与第二主机之间的连接，并将该连接中来自两端的报文都路由到同一个目标网络设备进行处理 。其核心是在网络中部署一个有状态路由层，确保双向流量经过同一节点，从而维护会话状态一致。这与 Hyperplane 中负载均衡/NAT 实现的关键原则不谋而合。在 Hyperplane 中，每条连接被固定由某个节点处理，出入流都走该节点，从而该节点可以保存会话的 NAT 映射或负载均衡粘性状态 。该专利的原理支撑了 Hyperplane 的<strong>对称流量转发</strong>能力，使其能够在分布式环境下提供有状态服务（例如，NAT 网关必须保证回包经过原转换节点才能正确映射地址）。因此，此专利可以视为 Hyperplane 数据面实现<strong>有状态分布式中间设备</strong>（如防火墙、NAT、负载均衡）的基础技术之一。</li><li><strong>专利二：面向隔离虚拟网络的私有别名端点 (Private alias endpoints for isolated virtual networks)</strong> 。这项专利（US 11792041）描述了在云中为服务提供私有访问入口的方法。它提到，当客户的隔离虚拟网络（VPC）内配置一个私有别名端点供内部访问某项服务时，系统将截获客户端发往该服务公网地址的报文，并使用隧道封装技术在报文中加入源VPC标识，将其发送到服务节点 。简单来说，就是为服务流量建立一条<strong>私有隧道</strong>：客户端认为自己在访问服务的公网IP，其实流量被Hyperplane节点拦截封装，送达服务内部。这个原理与 AWS PrivateLink 的实现完全吻合。Hyperplane 扮演了专利中的“隧道中介”角色 ，通过将客户流量打上标签并转发，使多个租户可以各自通过私有网络访问同一公共服务而互不干扰。这份专利支撑了 Hyperplane 实现<strong>PrivateLink 接口端点</strong>的技术细节，确保封装/解封装过程高效透明，也保障了服务流量在云内传输的安全性和隔离性。</li><li><strong>专利三：将路由表与进入隔离网络的流量关联 (Associating route tables with ingress traffic to logically isolated networks)</strong> 。该专利（US 11671365）提出了一种在虚拟网络边缘处理入口流量的方案：当外部流量进入一个隔离虚拟网络（如VPC）时，可以在边缘路由设备上配置特定路由，将此入口流量导向网络内部的一个网络设备（网络功能实例） 。换言之，根据报文目标属于某IP块或某资源，边缘路由器可直接将其下一跳指向一个内部的虚拟网络设备，而不按默认目的IP投递。这个方法很明显地被用在 Hyperplane 的架构中。例如，当客户在其VPC中部署 NLB 时，NLB拥有一个固定IP，但这个IP对应的流量不直接送到EC2实例，而是根据VPC路由，被发送到一个隐藏的Hyperplane ENI上 。这个 ENI 就是NLB的网络设备入口。类似地，Public ALB或NAT Gateway在Internet网关的路由表中也可能有相应规则，将发往其弹性IP的流量定向到内部的Hyperplane节点。通过这种<strong>路由表驱动的流量劫持</strong>方式，Hyperplane 可以无缝插入流量路径，而不需要修改报文本身的目标地址（报文目的地仍是NLB的IP，但VPC路由把它引向Hyperplane设备处理) 。此专利保障了在云环境下<strong>灵活引入中间网络功能</strong>的实现，可看作对 Hyperplane 如何融入 VPC 路由架构的支撑：它让 AWS 可以通过路由配置，优雅地把入口流量送入 Hyperplane 数据面，再由 Hyperplane 完成NAT、负载均衡等处理后递交给真正的目的主机。</li><li><strong>专利四：虚拟网络环境中的私有网络对等连接 (Private network peering in virtual network environments)</strong> 。这项专利（US 11770364）介绍了在提供商网络中实现私有网络互联的方法。它提到通过一个<strong>对等服务（peering service）*</strong>*和API，客户可以动态创建和管理虚拟网络之间的对等连接，包括在提供商网络的共享基础设施上建立“虚拟端口”和“虚拟传输中心”，接受对等连接请求，配置路由交换等** <strong>。一旦对等连接建立，不同私有网络的实例就可以通过底层提供商网络的封装隧道彼此通信</strong> <strong>。这显然对应了 AWS 的 Transit Gateway 服务，以及类似的多VPC互联技术。Transit Gateway 正如前文所述，是基于 Hyperplane 的分布式路由集群</strong> <strong>。该专利提供了 TGW 的技术基石：包括中心集群管理、动态路由、封装转发等。当客户通过 API 创建 TGW 对等连接时，Hyperplane 控制面在后台为此生成必要的隧道和路由配置；数据面则据此在各相关VPC的 Hyperplane 节点之间建立封装通信</strong> <strong>。例如，专利提到使用封装协议作为 overlay，这正是 Hyperplane 在 TGW 中转发跨VPC流量所采取的方式</strong> <strong>。此外，专利中关于*</strong>*虚拟传输中心<strong>、</strong>虚拟端口<strong>的概念，也对应了 TGW 中的“Transit Center”和“Attachment”（附加连接）。通过这些机制，Hyperplane 能支持 TGW 实现</strong>大规模多对多VPC互联<strong>，包括跨账户、跨Region的复杂网络拓扑，同时保证隔离和灵活性。总的来说，此专利阐述的技术让 Hyperplane 不仅限于点对点隧道，而是进化成一个</strong>可编程的云路由交换平台**，这是 AWS 云网络基础设施的重要组成部分。</li></ul><p>综上，这些专利涵盖了 Hyperplane 平台的诸多关键技术要点：<strong>有状态分布式转发、隧道封装、多租户路由集成以及跨网互联</strong>。它们共同支撑了 Hyperplane 的实现，使其成为 AWS 云中功能强大又稳定可靠的网络“大脑”。通过研读这些专利，我们可以更深入地理解 Hyperplane 在幕后所做的工作，以及 AWS 是如何通过创新来突破传统网络功能的限制，在云中打造如此大规模的虚拟网络设备。这些技术不仅确保了 AWS 当前网络服务的领先地位，也为未来更复杂的云联网服务打下了坚实基础。</p><p><strong>参考资料：</strong></p><ol><li>Amazon Builders’ Library：《避免在分布式系统中过载的方法——让规模较小的服务掌控节奏》    </li><li>AWS Compute Blog：《宣布 AWS Lambda 函数的改进 VPC 网络集成》   </li><li>Andrei Ochesel个人技术博客：《理解负载均衡器如何扩展的一次旅程》  </li><li>AWS Networking &amp; Content Delivery Blog：《通过预留负载均衡器容量应对流量激增》  </li><li>AWS re:Invent 2018 Networking @Scale大会总结 </li><li>Aviatrix技术文章：《十大须知——新推出的 AWS Transit Gateway》  </li><li>AWS 专利文献：US 11115322 、US 11792041 、US 11671365 、US 11770364 等</li></ol><p><br></p>","content_text":"AWS HYPERPLANE 技术深度分析\n\n\n1. HYPERPLANE 的技术实现原理\n\n\n系统架构与设计目标\n\nAWS\nHyperplane是AWS内部构建的网络功能虚拟化（NFV）平台，旨在支撑多个云网络服务，包括网络负载均衡器（NLB）、NAT网关、PrivateLink、Transit\nGateway 等 。Hyperplane 于 2017 年在 re:Invent 大会上首次公开亮相，但早在 2015 年就已投入生产使用 。它作为\nAmazon EC2 网络架构的一部分“嵌入”于底层网络中，为这些高级服务提供统一的分布式数据平面支持\n。其设计目标是实现大规模、高吞吐、低延迟的网络包处理能力。例如，一个 NLB 实例可支撑每秒数百万次请求而保持极低延迟 。Hyperplane\n通过提供单一静态IP（每可用区一个）来服务客户负载，实现对客户端透明的水平扩展能力 。为了避免成为系统瓶颈，Hyperplane\n采用多租户共享集群架构：所有用户的实例共用一支 Hyperplane 节点池，但逻辑上又彼此隔离，呈现出类似独占设备的使用体验\n。这种架构通常以单元化(cell-based)**方式跨多个可用区部署，既保证了弹性伸缩，又缩小了故障影响范围。高可靠性同样是 Hyperplane\n的核心目标——系统高度冗余，默认假设节点随时可能失效并设计为持续“修复模式”运行，即不停监测和快速恢复故障**\n。正因如此，当少数节点发生故障时，其余节点能够无缝接管流量，整个系统所承担的工作几乎不变，从而体现出一定的“反脆弱性” 。概括来说，Hyperplane\n的架构追求在**大规模多租户环境下的稳定、弹性和高性能**：采用水平扩展的分布式节点池提供 Tb 级别的总吞吐容量，并通过冗余和容错设计来确保服务的持续可用 。\n\n\n数据面与控制面组件\n\nHyperplane 将数据面（Data Plane）和控制面（Control\nPlane）**相分离，以提高系统可伸缩性和可靠性。这种划分类似于路由器领域的数据面/控制面分离思想：数据面由实际处理用户网络流量的分布式设备组成，控制面则负责管理配置和状态分发**\n。在 Hyperplane 中，数据面是一组跨多个可用区部署的**Hyperplane节点**（本质上是高性能 EC2\n实例），它们承担实际的包处理、NAT转换和负载转发等功能。控制面则是一组管理服务，负责维护所有用户的配置（如每个\nNLB、NAT网关、PrivateLink端点的路由信息、规则等），并将这些配置下发同步到数据面节点 。\n\n为避免控制面与庞大的数据面之间直接高频交互造成过载，Hyperplane 的控制面采用了一种静态稳定性（Static Stability）**策略来分发配置：以\npull 模式替代 push 模式** 。具体来说，控制面将用户配置更新集中写入 Amazon S3 上的配置文件，而不是每有改动就通过工作流推送给所有节点\n。每个数据面节点则按照固定频率（每隔几秒）从 S3 拉取最新配置文件并加载，即使配置无变化也重复这一过程\n。这样一来，即便某段时间有大量配置变更，节点的查询频率和处理模式也保持恒定，从而避免了峰值时期控制面推送风暴可能导致的过载\n。这种**“恒定工作模式”确保了系统在任意时刻均以稳定速度执行相同的操作，消除了负载陡增时控制面、数据面的耦合振荡，提高了整体可靠性**\n。从实现细节看，控制面将配置存储在分布式数据库（如 DynamoDB）中，并由后台任务汇总后写入 S3 文件\n；数据面节点定期下载S3文件并应用其中配置。由于节点始终处理最新配置，即使控制面本身发生故障，数据面也能在相当长时间内用**最后一次下发的配置独立运行**，从而具备静态稳定性和故障隔离能力\n。\n\n值得一提的是，Hyperplane 利用了 AWS Nitro 系统提供的先进网络能力来实现控制面与数据面的解耦和资源共享。Nitro\n架构允许将弹性网络接口（ENI）跨账户附加到实例上，这正是 Hyperplane 将自身节点“插入”用户VPC的关键机制 。每当创建一个需要\nHyperplane 支持的资源（如NLB、NAT网关等），AWS 会在客户VPC中预置一个由服务账户拥有的\nENI，并将其附加到Hyperplane数据面实例上 。这样，该 ENI\n就成为该资源在用户VPC内的锚点，承载着资源的流量出入。控制面负责在创建资源时设置好这些 ENI（包括安全组、子网等），数据面则在 ENI\n附接后将其纳入自身管理范畴。AWS Nitro 系统提供了高速包处理和弹性网络适配的硬件加速能力（如专用的 Nitro Card），使 Hyperplane\n节点能够以极高的包转发率处理流量，并确保跨账户 ENI 通信的安全隔离 。总之，Hyperplane 控制面通过 DynamoDB + S3\n实现配置的可靠分发，数据面通过 跨账户ENI + Nitro加速 来高效接管用户流量，二者协同实现了大规模分布式网络功能的稳定运行 。\n\n\n网络包处理流程（包括 NAT 映射、多租户隔离等）\n\n在 Hyperplane 的数据面内部，网络数据包按流（flow）进行处理，确保状态一致性和多租户隔离。对于负载均衡（如 NLB）场景，Hyperplane\n需要跟踪每个 TCP/UDP 连接，以便将同一连接的所有数据包发送到正确的目标后端实例，并保证连接粘性。这要求 Hyperplane\n在多节点分布式环境下实现连接状态的一致：AWS 工程团队为此设计了高效的分布式连接跟踪和一致性哈希算法，解决了在多节点间进行大规模连接管理的难题\n。简而言之，当客户的一个负载均衡收到新连接时，Hyperplane\n会使用哈希等策略将该流分配给某个具体的数据面节点处理，并在该节点上保存该连接的状态（如源地址、目的地址、端口等）。此后，该连接往返的所有数据包（无论入站还是出站）都会经由同一节点处理，从而保证了\nNAT 转换或转发决策的一致性。这种“单流固定节点”的路由方式通过内部一致性协议或共享内存等机制实现，以避免多节点竞争处理同一流导致混乱 。AWS\n相关专利（US 11115322）也描述了类似的 “有状态网络路由” 技术：拦截客户端与服务器之间的连接，将来自两端的包都定向到同一个目标网络设备处理 。这正是\nHyperplane 实现 TCP/UDP 流粘性的基础 。\n\n对于 NAT 网关场景，数据面节点需要执行网络地址转换：将私有子网主机发出的流量源地址转换为 NAT 网关的弹性公网IP，并维护每个连接的映射表。当\nInternet 返回流量时，再根据映射将目的地址翻译回原内网主机。Hyperplane\n通过上述有状态路由机制保证了NAT映射的一致性：每个私网主机与外部目标的连接由某个节点专职处理并保存转换状态，回复流量会被自动导回该节点，从而正确应用NAT回写。由于\nHyperplane 在每个可用区的 NAT 网关都采用单一固定的弹性IP，而幕后实际由多台节点共同支撑，因此 AWS 会使用一种类似 Anycast\n或客户端透明分流的技术，将发往该IP的流量在内部网络中分配给不同节点 。无论底层有多少节点，外部看起来 NAT\n网关服务都通过一个IP对外提供，且能够水平扩展处理能力而无需更改IP 。这一模式同样应用于\nNLB：NLB在每个AZ只有一个弹性网络接口及其静态IP，背后挂载了多个高性能 Hyperplane 节点，客户端始终命中静态IP，而 Hyperplane\n会透明地在节点间分发负载 。\n\n多租户隔离方面，Hyperplane\n确保不同用户、不同资源的流量和状态彼此独立。虽然物理节点是共享的，但系统在软件层面对每个资源实例（每个NAT网关、每个NLB等）维护单独的路由和映射表。例如，Hyperplane\n数据面会为每个 NLB 实例分配一个内部标识或独立的监听端口范围，以区分不同用户的连接，确保不会将 A 用户的流量错误地转发到 B 用户的后端\n。另外，每个资源使用独立的 Hyperplane ENI 进入用户VPC，该 ENI 承载特定资源的IP和安全组配置，相当于为该资源划分出专用的网络接口上下文\n。Hyperplane\n节点在处理数据包时，会根据目的ENI或目标IP将其映射到对应的资源实例空间中，应用只属于该实例的NAT或转发规则。这保证了即使多个租户的流量在同一物理机器处理，也不会混淆或越权访问。\n\n整体的数据包流程可以概括如下：当外部流量到达某服务（例如一个NLB的静态IP），首先经由 VPC Edge Router 查找路由，被引导至\nHyperplane 在该 AZ 内的 ENI；数据包进入某个 Hyperplane\n节点，由其根据连接四元组确定属于哪个后端目标并转发。同时，该节点记录连接状态。当后端服务器回应时，返回包经由 VPC 路由再次到达 Hyperplane\nENI，并由同一节点拦截，根据先前保存的状态将源/目的地址转换（NAT 的情形）或直接路由回客户端。整个过程中，Hyperplane\n节点集群协同确保单连接单节点处理、有状态对称转发，从而实现了高性能且正确的 NAT/LB 数据面。如果某个节点故障，Hyperplane\n控制面会察觉并将受影响的资源流量重新分配到其它节点，新连接会由健康节点接管。而已有故障节点上的连接可能中断，但对于许多幂等性通信，客户端重试即可由存活节点建立新连接服务。借助快速故障检测和冗余节点池，Hyperplane\n最大程度减少了单点故障对用户流量的影响。\n\n\n与 AWS NITRO 系统、弹性网络接口（ENI）、EC2 实例的交互机制\n\nHyperplane 的实现与底层 AWS Nitro 系统和 EC2 网络设施紧密结合。首先，每个 Hyperplane 数据面节点运行在 AWS EC2\n实例之上（可能是经过优化的自有实例类型），利用 Nitro 提供的弹性裸机性能和虚拟化隔离。Nitro 架构允许 AWS 打破传统限制，实现跨账户附加\nENI这一关键能力 。例如，当用户在其VPC中创建一个 NAT Gateway\n时，系统在用户VPC的选定子网中创建一个弹性网络接口（ENI），分配上私有IP和弹性IP，并跨账户附加到 AWS 管理的某台 Hyperplane 实例上\n。从用户视角看，这个 ENI 就是 NAT Gateway 在该子网的“存在”，拥有自己的资源ID和安全组等；但实际上其背后挂载的是 Hyperplane\n数据面。类似地，创建 NLB 时，每个可用区也会有一个 Hyperplane ENI（带有静态私有IP或弹性IP）附着到 Hyperplane 实例 。AWS\nNitro 为这种 ENI 附加提供了底层支持，确保网络流量能够在用户VPC和Hyperplane实例之间高速、安全地传递。Nitro\n卡承担了很多网络数据面的工作，例如包的虚拟交换、弹性队列等，使得 Hyperplane 实例无需过多占用主CPU就能处理海量流量。\n\n与 EC2 实例的交互方面，Hyperplane 显得对用户几乎透明。客户部署在 EC2 上的应用若使用了这些网络服务（如通过 PrivateLink 访问一个\nAWS托管服务，或通过 NAT网关访问公网），其数据包仍然从EC2出来后先经过VPC本地路由。如果目的地址匹配某个 Hyperplane ENI（例如属于\nNAT Gateway 或 Interface Endpoint），Nitro/Ethernet层会将包直接送达附在该 ENI 上的 Hyperplane\n实例，而不是发往某台客户实例 。由于 Hyperplane ENI 就在用户的二层网络中，数据包通过 AWS 内部网络即可抵达对应的 Hyperplane\n节点，无需离开AWS物理基础设施。这种设计下，用户EC2实例无需感知 Hyperplane 的存在——它们只与 ENI 的 IP\n通信，就如同与本地网关通信一般。但在幕后，EC2 实例的流量被 Nitro\n系统重定向给了Hyperplane数据面进行处理。完成如地址转换、服务发现等功能后，再由 Hyperplane\n将数据送至下一跳（可能是另一个VPC的ENI、AWS服务入口或Internet网关等）。举例来说，在 Lambda 函数通过 Hyperplane ENI\n访问私有VPC资源的场景中，Lambda 执行环境位于服务VPC，通过 Hyperplane 隧道与客户VPC内的 ENI 建立通信 。整个过程利用 Nitro\n的弹性网络能力，让多个 Lambda 执行环境共享少量 Hyperplane ENI 即可并发访问 VPC，显著降低了传统模式下每个函数创建ENI所带来的开销\n。\n\n综上，AWS Nitro 系统提供的高速网络I/O和安全隔离是 Hyperplane 实现的基石：Hyperplane 利用 Nitro\n的硬件加速和轻量虚拟化，将自己的节点嵌入到用户的虚拟网络中，既保证了数据转发效率，又确保了与用户实例间的安全隔离。在用户看来，Hyperplane 只是以\nENI 形式存在的一种黑盒网络设备；而在 AWS 平台内部，它通过 Nitro 与 EC2 紧密协作，实现了云上前所未有的灵活网络功能即服务能力。\n\n\n2. HYPERPLANE 的应用场景\n\n\n2.1 在 NETWORK LOAD BALANCER (NLB) 中的作用\n\nNetwork Load Balancer 是 Hyperplane 最早支持的服务之一。NLB\n工作在OSI第四层，提供高吞吐、低延迟的流量分发能力，能够处理数百万TPS的连接请求。Hyperplane 为 NLB 提供了核心的数据转发平面：当用户创建一个\nNLB 时，每个启用的可用区会分配一个由 Hyperplane 托管的弹性网络接口（拥有一个静态IP地址） 。所有发往该静态IP的流量会进入\nHyperplane 网络平面，由其在幕后路由到负载均衡器实际的后端目标。由于每个可用区的 NLB 节点只有一个固定IP，Hyperplane\n必须在不改变客户端连接IP的情况下实现水平扩展。它通过将该 IP 映射到多个高性能节点实例来实现：对客户端而言，NLB 在一个AZ始终只有一个目标IP；但在\nAWS 内部，多个 Hyperplane 节点共同对外服务这个 IP，客户端连接会被均衡地分布到这些节点上处理\n。这一设计的直接好处是静态IP负载均衡：无论流量增长到多大，都无需在DNS中添加更多IP，NLB的IP不变，而 Hyperplane\n可以动态增加节点来承载更多流量。NLB 因此非常适合需要硬编码IP或要求IP不变的场景 。\n\nHyperplane 赋予 NLB 卓越的可扩展性和性能。在流量模式变化时，Hyperplane 节点池能够快速弹性伸缩：NLB默认起步就有约 3 Gbps\n的容量，并可根据需要每分钟增加 3 Gbps 吞吐 。这种弹性扩容完全由 Hyperplane 在后台完成，对用户透明且无需干预。此外，由于\nHyperplane 采用分布式设计，NLB 天然具备多可用区冗余。每个AZ的 Hyperplane\nENI和节点集群相互独立，某一AZ故障并不影响其他AZ的NLB节点，确保负载均衡服务的高可用。Hyperplane 对连接的高效跟踪也使 NLB\n能够稳定处理长连接和高并发。正如之前提及的，Hyperplane 使用一致性哈希等算法保证每条连接始终由同一节点处理 。这意味着即使 NLB\n在内部是由许多节点支撑，也不会出现连接在节点间来回漂移的问题，保证了会话的一致性和高效性。Amazon Builders’ Library 专文指出，NLB\n的实现正是建立在 Hyperplane 之上，Hyperplane 通过每秒轮询 S3 上的配置来获取最新的目标实例列表，实现了毫秒级别的配置同步和恒定性能\n。同时，Hyperplane 多租户隔离的特点也应用于 NLB：每个 NLB 实例的流量在节点处理时都有独立的上下文，不同用户的NLB互不干扰 。\n\n综上，借助 Hyperplane，NLB\n实现了传统硬件负载均衡器难以企及的大规模弹性和高可用性。它能够在不更换IP的情况下自动扩展容量，在瞬息万变的流量条件下保持低延迟 。Hyperplane\n的分布式冗余让 NLB 没有单一故障点：任一节点故障时，新连接会自动由集群中其它节点接管，已有连接的中断也能通过客户端重连很快恢复。可以说，Hyperplane\n是 NLB 背后的“隐形引擎”，使得用户无需操心容量或可靠性问题，NLB 就能“开箱即用”地扩展到所需的规模 。\n\n图 1：Hyperplane 在 AWS 内部实现 VPC 间的负载均衡/NAT 功能示意（以 Lambda\n函数访问用户VPC资源为例）。左侧Lambda所属的AWS服务VPC通过Hyperplane隧道将流量传送到右侧客户VPC的Hyperplane\nENI，再由Hyperplane节点进行NAT转换和路由，实现跨VPC的高速互通 。同理，NLB/NAT\n网关等也是通过在每个VPC的每个AZ挂载一个Hyperplane\nENI，由Hyperplane节点池承担实际数据转发来运作的。该机制保证了单一IP对外、幕后水平扩展和多租户隔离。\n\n\n2.2 在 AWS PRIVATELINK 中的应用\n\nAWS PrivateLink 提供了一种在私有网络中访问\nAWS托管服务或第三方服务的机制，使流量不经过公网即可在消费者VPC与服务提供方之间传输。Hyperplane 是实现 PrivateLink\n的关键支撑技术：它扮演了 PrivateLink “底层载体”的角色。具体而言，当用户在其VPC中创建一个接口端点（Interface\nEndpoint）**来访问某AWS服务时，系统会在用户VPC里生成一个由 Hyperplane 托管的\nENI（它有一个来自该VPC子网的私有IP，通常还会在Route 53解析出对应的服务私有域名）。当用户的EC2实例向这个 AWS\n服务的私有域名发起请求时，请求报文的目的IP即是上述 ENI 的私有地址，报文通过VPC子网路由直接来到 Hyperplane\nENI。此时，Hyperplane 数据面发挥作用：它将用户报文封装后通过AWS内部网络转发给目标服务。AWS官方专利（US\n11792041）详细描述了这一流程：Hyperplane\n充当隧道中介，将用户VPC发出的原始数据包（目的地址是服务的公网IP，源是客户实例私有IP）进行封装，添加一个标识源VPC的头部，然后将封装包发送到服务端所在的节点处理**\n。服务端（可能是AWS自身的服务入口，或对方VPC的NLB）收到并解封后，就能获取到原始请求并进行响应。响应报文再经由Hyperplane反向封装，送回客户VPC的接口端点ENI。这种机制实现了客户VPC与服务之间的**私有链接**：对用户而言，访问服务就像访问本地IP一样，而实际流量在\nHyperplane 的隧道中穿行，未经过Internet 。\n\n借助 Hyperplane，PrivateLink\n可以同时服务于众多租户和服务。每个客户VPC针对每个目标服务都会有独立的接口ENI和私有IP，Hyperplane 利用封装头中的\nVPC标识和目的服务信息来区分不同客户/不同服务的流量\n。因此，哪怕许多客户都访问同一AWS服务，流量在Hyperplane内部依然能够被正确隔离路由，不会混淆或越权。Hyperplane 的高带宽能力也保证了\nPrivateLink 通道的性能：因为数据不绕经公网，而是走AWS内网，延迟和吞吐都很优良。此外，Hyperplane 提供的冗余让 PrivateLink\n通常具有接近于底层网络的可用性——其 ENI\n和节点在每个AZ都是冗余的，服务提供方那边也往往有NLB的冗余。因此，整个PrivateLink通信路径没有明显的单点故障。以访问 S3\n接口端点为例，用户请求通过Hyperplane在AWS网络骨干上路由到S3服务的一组弹性网卡上（S3 每个AZ都有Hyperplane支持的服务网卡用于接收\nPrivateLink 流量），确保即使S3某单台设备故障，其他设备也能及时接管。在私有链接建立过程中，Hyperplane\n控制面和数据面协同还要完成服务发现和连接初始化：比如当接口端点建立时，会在Hyperplane系统中注册对应需要连接的服务目标。随后数据面才能识别封装包该送往哪。AWS\nBuilders’ Library 中提到，Hyperplane\n最初尝试过用事件驱动的方式将配置下发给节点处理PrivateLink等配置，但后来改为所有节点定期从S3拉取更新配置\n。这也意味着，当用户创建或修改接口端点时，Hyperplane 控制面会将该变化写入配置文件，几秒钟内所有节点就会知道新的服务映射，从而可以开始转发流量\n。通过这种方式，PrivateLink 可以在用户发起创建后非常快地生效，且后续配置变化也能一致传播。总的来说，Hyperplane 为 PrivateLink\n提供了可靠的承载网络：它让私有连接无需客户操心底层隧道如何建立、维护，AWS\n负责在Hyperplane层实现高扩展、透明的隧道路由。从网络角度看，Hyperplane 扮演了大规模多租户 VXLAN/Geneve\n网关的角色，只不过其智能和能力远超传统网关，能够自动适应云环境的规模和动态变化。PrivateLink 因此成为跨VPC、跨账户访问服务的利器，而这背后正是\nHyperplane 技术的灵活运用。\n\n\n2.3 在 AWS TRANSIT GATEWAY、VPC LATTICE 等服务中的应用\n\nHyperplane 的通用网络虚拟化能力也被进一步应用在其它高级网络服务中，其中包括 AWS Transit Gateway (TGW) 和 Amazon\nVPC Lattice 等。Transit Gateway 是 2018 年推出的云中枢路由服务，允许在一个集中网关上实现多达成千上万个\nVPC、本地VPN连接的互连。根据 AWS 介绍，Transit Gateway 完全构建在 Hyperplane 之上 。具体而言，每个 Transit\nGateway 在区域内实际上由一组 Hyperplane 节点组成，这些节点类似一个高可用路由集群。每当有 VPC 或VPN附件接入 TGW，AWS\n就会在该附件所在AZ将流量引导至 Hyperplane 节点进行转发。Transit Gateway\n的路由表由控制面管理，但数据转发（包括封装/解封、路由查找）全部由 Hyperplane 数据面线速完成。这使 TGW 具备了惊人的扩展性：官方数据显示，每个\nTGW 可支持高达 5000 个 VPC 连接和 10000 条路由 ；带宽方面，每个连接（例如 VPC 附件）可以使用高达 50 Gbps 的吞吐\n。这些大规模能力的实现正是因为底层有 Hyperplane 提供弹性扩容。一方面，Hyperplane 节点可以根据流量自动增加，确保即使许多 VPC\n同时大量通信，网关也不成为瓶颈；另一方面，Hyperplane 天生的多AZ冗余让 TGW\n实现了高可用设计——每个连接可以跨多个AZ冗余通信路径。当某AZ的节点故障或网络不通时，TGW 会自动切换路径而用户无感知。值得注意的是，Transit\nGateway 内部流量通常采用封装传输（类似第三层的GRE或VXLAN隧道），以在隔离不同VPC地址空间的同时实现转发。Hyperplane\n节点负责对报文加解封装并查找下一跳路由，这与前述 PrivateLink 的封装思路如出一辙 。AWS一项专利（US\n11770364）描述了“虚拟网络环境中的私网对等连接”方案，提到通过一个中心服务动态建立跨客户私有网络的端口和隧道，并进行路由信息交换 ——这正是\nTransit Gateway 的工作原理摘要。这进一步印证了 Hyperplane 在 TGW 中的作用：Hyperplane\n提供了一个可编程的分布式路由器平台，AWS 基于它实现了TGW丰富的路由和隔离特性。\n\nAmazon VPC Lattice 是最近推出的新服务，定位于在应用层实现跨VPC、跨账户的服务间通信和发现。Lattice\n提供了类似服务网格的功能，例如服务命名、流量路由、请求级别负载均衡和鉴权等，但却不要求用户部署传统服务网格代理。虽然 Lattice\n的很多高级功能作用于应用七层，但它底层的跨网络流量转发依然离不开 Hyperplane。可以认为，Lattice 在许多方面融合了 PrivateLink\n和内部负载均衡的技术：当一个客户端需要调用另一个VPC里的服务时，Lattice\n会为这次调用在客户端VPC和服务VPC之间建立一条Hyperplane支持的路径。实际上，每个加入 Lattice 服务网络的VPC都会有一些隐含的\nHyperplane 组件：例如，一个所谓的 “目标导向器” 或 “服务入口” 将由 Hyperplane ENI\n来承载，从而接受来自其他VPC的调用流量。由于 Lattice 允许不同账户的VPC无缝互通，它需要底层网络具有多租户隔离和大规模转发能力，这正是\nHyperplane 的强项。可以推测，当客户端向某个 Lattice 服务发起请求时，这请求可能被解析到本地的一个 Hyperplane ENI（类似\nPrivateLink 接口端点的作用），然后 Hyperplane 将该请求封装并传输到目标服务所在VPC的 Hyperplane\n节点，最后交付给服务实例。如果服务需要响应，同样路径返回。整个过程中，Lattice 会在应用层做一些策略控制（如流量分割、鉴权），但实际数据搬运仍由\nHyperplane 来完成。凭借 Hyperplane，Lattice 可以避免让用户自行配置复杂的VPC Peering或Service\nMesh，大幅简化架构。尤其在大规模微服务场景下，使用 Lattice 意味着开发者不用关心网络细节，服务间通信的可靠性和吞吐由 AWS 的\nHyperplane 平台保证。Lattice 目前还处于推广初期，但从其设计初衷来看，很大程度上延续了 Hyperplane 平台的理念：即由 AWS\n提供一个托管的、高度弹性的网络数据平面，让用户关注更高层的应用配置。这种理念下，无论是 Lattice 还是\nTGW、PrivateLink，其底层实现都有异曲同工之妙。Hyperplane\n在这些服务中所做的，都是将底层网络连接虚拟化、服务化：以软件定义的方式提供路由、交换、NAT、负载均衡等功能，并通过 AWS 的规模优势实现高性能和高可用。\n\n\n2.4 HYPERPLANE 对高可用性、扩展性和性能的贡献\n\n综合上述场景可以看到，Hyperplane 技术大幅提升了 AWS 网络服务的高可用性、可扩展性和性能指标：\n\n * 高可用性（High Availability）：Hyperplane 天生是分布式冗余架构，没有单点故障。服务以集群形式运行在多个 AZ 的多台节点上\n   。即使某台服务器或某个AZ发生故障，流量可以立即由其它节点/区域接管，保证服务持续可用。比如 NLB/NAT 网关等在每个 AZ 都有独立的\n   Hyperplane 实例支撑，任一实例故障都会自动切换到该 AZ 内的备用节点或其他 AZ 的入口IP（对于NLB多AZ场景）继续服务。对于\n   PrivateLink 等，Hyperplane ENI 的故障很少发生；就算发生，AWS\n   也会在后台快速替换ENI并更新DNS，在短暂的连接重建后即可恢复通信。因此，Hyperplane 有力地支撑了 AWS 云上 99.99% 甚至更高\n   SLA 的网络服务。控制面和数据面的松耦合也提升了可用性：数据面节点可以在控制面不可达时自行运行相当长时间（使用最后已知配置），比如 Builders’\n   Library 提到的一种静态稳定性设计 。这意味着短暂的控制面故障不会影响已有连接的转发。总之，Hyperplane\n   将许多传统需要人工干预的高可用措施（如故障检测、流量切换）在云端自动化、软件化，实现了高度可靠的网络服务。\n * 扩展性（Scalability）：Hyperplane\n   通过水平扩展支持极高的流量规模。一方面，用户无需担心预热（pre-warm）**负载均衡等操作——当流量飙升时，Hyperplane\n   会自动添加节点并及时调整容量** 。NLB 和 ALB 之前需要预热才能处理突发流量峰值，而有了 Hyperplane 后，NLB\n   已经能够在五分钟内实现带宽翻倍扩容，十分钟实现再翻倍，如此快速地线性扩展\n   （ALB/NLB官方提供的扩展率分别为每5分钟双倍增长等）。另一方面，在**多租户场景下，Hyperplane 利用 AWS\n   全局规模优势，实现了弹性池化。对于某个用户的某项服务而言，其流量高峰可能短暂且相对其他用户并非同时发生，Hyperplane\n   可以在全局上调度资源：繁忙的服务占用更多节点，空闲的服务占用较少节点，从而实现资源的动态平衡。这种架构确保了 AWS\n   整体基础设施利用率和单用户弹性的双赢。此外，Hyperplane 也支持 按需扩展到极限：当单个实例容量达上限时，可以进行“ELB分片”等模式拆分流量\n   。比如ALB/NLB官方建议在超大规模时使用多负载均衡器分担，这其实也是易于通过Hyperplane控制面配置实现的（将不同流量片段指派给不同Hyperplane资源）。正因有Hyperplane，AWS\n   才敢于对客户承诺诸如一个NLB可处理百万级新建连接每秒、百万并发连接**这类传统硬件难以企及的性能，而无需客户提前部署大量设备。值得一提，Transit\n   Gateway 能支持5000+ VPC连接、每附件50Gbps带宽，也是 Hyperplane 强大扩展性的直接体现 。\n * 性能（Performance）：Hyperplane 在性能上贡献也非常显著。一方面，由于采用了专用的 Nitro\n   硬件加速和高端EC2实例，Hyperplane\n   节点处理网络报文的延迟非常低，很多情况下可以做到微秒级的额外延迟开销。这使得NLB可以提供接近直连的网络性能——相比ALB七层负载均衡的复杂处理，NLB的Hyperplane数据面几乎只做L4转发，延迟往往只有几毫秒甚至亚毫秒级别，吞吐可以充分利用网络带宽上限\n   。另一方面，Hyperplane\n   通过内置的负载分担和协议优化来提升性能。例如，在Hyperplane内部使用零拷贝转发、批量包处理等技术，单节点就能处理每秒百万级的数据包。而多节点并行工作后，总体吞吐线性提升。对于\n   NAT 网关，Hyperplane 保证了高并发连接和高PPS能力：用户常说“NAT\n   Gateway是无限扩展的”，正是因为Hyperplane可以根据连接数自动增加跟踪表和处理单元。实际测试中，NAT Gateway\n   可以毫不费力地处理每秒几十万的并发连接建立，这远超过传统软件路由在单机上能做到的，背后正是分布式Hyperplane节点在协同工作。此外，在网络拥塞或峰值情况下，Hyperplane\n   的恒定工作模式避免了抖动和退化，这种平滑的性能表现对大规模应用非常关键 。最后，Hyperplane 也为 AWS\n   服务带来了统一的性能管理优势。因为不同服务共享同一套基础数据面技术，AWS\n   可以集中优化这一层。例如改进封装协议、高效利用缓存等等，会惠及PrivateLink、TGW、NLB等所有服务，提高整个云网络的性能底线。\n\n综上所述，AWS Hyperplane 通过创新的架构和实现，成为支撑 AWS\n云上网络服务的“幕后英雄”。它像操作系统之于计算资源一样管理着网络资源，为负载均衡、NAT、私网连接等提供了统一的高可靠、高性能抽象。对用户而言，Hyperplane\n是隐形的 —— 用户只看到稳定强大的云服务；但正是因为有 Hyperplane\n的加持，这些云网络服务才能在大规模云环境下如同本地设备般运作，却又具有本地设备无法实现的弹性和易用性。\n\n\n3. 相关专利分析\n\nAWS 在开发 Hyperplane 技术过程中也申请了多项专利，公开了一些底层实现思路。以下选取几份与 Hyperplane\n密切相关的专利，介绍其核心原理及其与 Hyperplane 系统的关系：\n\n * 专利一：有状态网络路由器用于管理网络设备 (Stateful network router for managing network\n   appliances) 。这项美国专利（US\n   11115322）揭示了一种有状态的数据流路由方法：网络路由器拦截第一主机与第二主机之间的连接，并将该连接中来自两端的报文都路由到同一个目标网络设备进行处理\n   。其核心是在网络中部署一个有状态路由层，确保双向流量经过同一节点，从而维护会话状态一致。这与 Hyperplane 中负载均衡/NAT\n   实现的关键原则不谋而合。在 Hyperplane 中，每条连接被固定由某个节点处理，出入流都走该节点，从而该节点可以保存会话的 NAT\n   映射或负载均衡粘性状态 。该专利的原理支撑了 Hyperplane 的对称流量转发能力，使其能够在分布式环境下提供有状态服务（例如，NAT\n   网关必须保证回包经过原转换节点才能正确映射地址）。因此，此专利可以视为 Hyperplane\n   数据面实现有状态分布式中间设备（如防火墙、NAT、负载均衡）的基础技术之一。\n * 专利二：面向隔离虚拟网络的私有别名端点 (Private alias endpoints for isolated virtual networks)\n   。这项专利（US\n   11792041）描述了在云中为服务提供私有访问入口的方法。它提到，当客户的隔离虚拟网络（VPC）内配置一个私有别名端点供内部访问某项服务时，系统将截获客户端发往该服务公网地址的报文，并使用隧道封装技术在报文中加入源VPC标识，将其发送到服务节点\n   。简单来说，就是为服务流量建立一条私有隧道：客户端认为自己在访问服务的公网IP，其实流量被Hyperplane节点拦截封装，送达服务内部。这个原理与\n   AWS PrivateLink 的实现完全吻合。Hyperplane 扮演了专利中的“隧道中介”角色\n   ，通过将客户流量打上标签并转发，使多个租户可以各自通过私有网络访问同一公共服务而互不干扰。这份专利支撑了 Hyperplane 实现PrivateLink\n   接口端点的技术细节，确保封装/解封装过程高效透明，也保障了服务流量在云内传输的安全性和隔离性。\n * 专利三：将路由表与进入隔离网络的流量关联 (Associating route tables with ingress traffic to\n   logically isolated networks) 。该专利（US\n   11671365）提出了一种在虚拟网络边缘处理入口流量的方案：当外部流量进入一个隔离虚拟网络（如VPC）时，可以在边缘路由设备上配置特定路由，将此入口流量导向网络内部的一个网络设备（网络功能实例）\n   。换言之，根据报文目标属于某IP块或某资源，边缘路由器可直接将其下一跳指向一个内部的虚拟网络设备，而不按默认目的IP投递。这个方法很明显地被用在\n   Hyperplane 的架构中。例如，当客户在其VPC中部署 NLB\n   时，NLB拥有一个固定IP，但这个IP对应的流量不直接送到EC2实例，而是根据VPC路由，被发送到一个隐藏的Hyperplane ENI上 。这个 ENI\n   就是NLB的网络设备入口。类似地，Public ALB或NAT\n   Gateway在Internet网关的路由表中也可能有相应规则，将发往其弹性IP的流量定向到内部的Hyperplane节点。通过这种路由表驱动的流量劫持方式，Hyperplane\n   可以无缝插入流量路径，而不需要修改报文本身的目标地址（报文目的地仍是NLB的IP，但VPC路由把它引向Hyperplane设备处理)\n   。此专利保障了在云环境下灵活引入中间网络功能的实现，可看作对 Hyperplane 如何融入 VPC 路由架构的支撑：它让 AWS\n   可以通过路由配置，优雅地把入口流量送入 Hyperplane 数据面，再由 Hyperplane 完成NAT、负载均衡等处理后递交给真正的目的主机。\n * 专利四：虚拟网络环境中的私有网络对等连接 (Private network peering in virtual network\n   environments) 。这项专利（US 11770364）介绍了在提供商网络中实现私有网络互联的方法。它提到通过一个对等服务（peering\n   service）**和API，客户可以动态创建和管理虚拟网络之间的对等连接，包括在提供商网络的共享基础设施上建立“虚拟端口”和“虚拟传输中心”，接受对等连接请求，配置路由交换等**\n   。一旦对等连接建立，不同私有网络的实例就可以通过底层提供商网络的封装隧道彼此通信 。这显然对应了 AWS 的 Transit Gateway\n   服务，以及类似的多VPC互联技术。Transit Gateway 正如前文所述，是基于 Hyperplane 的分布式路由集群 。该专利提供了 TGW\n   的技术基石：包括中心集群管理、动态路由、封装转发等。当客户通过 API 创建 TGW 对等连接时，Hyperplane\n   控制面在后台为此生成必要的隧道和路由配置；数据面则据此在各相关VPC的 Hyperplane 节点之间建立封装通信 。例如，专利提到使用封装协议作为\n   overlay，这正是 Hyperplane 在 TGW 中转发跨VPC流量所采取的方式 。此外，专利中关于**虚拟传输中心、虚拟端口的概念，也对应了\n   TGW 中的“Transit Center”和“Attachment”（附加连接）。通过这些机制，Hyperplane 能支持 TGW\n   实现大规模多对多VPC互联，包括跨账户、跨Region的复杂网络拓扑，同时保证隔离和灵活性。总的来说，此专利阐述的技术让 Hyperplane\n   不仅限于点对点隧道，而是进化成一个可编程的云路由交换平台**，这是 AWS 云网络基础设施的重要组成部分。\n\n综上，这些专利涵盖了 Hyperplane 平台的诸多关键技术要点：有状态分布式转发、隧道封装、多租户路由集成以及跨网互联。它们共同支撑了 Hyperplane\n的实现，使其成为 AWS 云中功能强大又稳定可靠的网络“大脑”。通过研读这些专利，我们可以更深入地理解 Hyperplane 在幕后所做的工作，以及 AWS\n是如何通过创新来突破传统网络功能的限制，在云中打造如此大规模的虚拟网络设备。这些技术不仅确保了 AWS\n当前网络服务的领先地位，也为未来更复杂的云联网服务打下了坚实基础。\n\n参考资料：\n\n 1. Amazon Builders’ Library：《避免在分布式系统中过载的方法——让规模较小的服务掌控节奏》\n 2. AWS Compute Blog：《宣布 AWS Lambda 函数的改进 VPC 网络集成》\n 3. Andrei Ochesel个人技术博客：《理解负载均衡器如何扩展的一次旅程》\n 4. AWS Networking & Content Delivery Blog：《通过预留负载均衡器容量应对流量激增》\n 5. AWS re:Invent 2018 Networking @Scale大会总结\n 6. Aviatrix技术文章：《十大须知——新推出的 AWS Transit Gateway》\n 7. AWS 专利文献：US 11115322 、US 11792041 、US 11671365 、US 11770364 等\n\n\n","date_published":"2025-12-23T05:04:49.284Z","_microfeed":{"is_audio":false,"is_document":true,"is_external_url":false,"is_video":false,"is_image":false,"web_url":"https://my-blog-dxh.pages.dev/i/agentic-ai-4sTd6yKE1t-/","json_url":"https://my-blog-dxh.pages.dev/i/4sTd6yKE1t-/json/","rss_url":"https://my-blog-dxh.pages.dev/i/4sTd6yKE1t-/rss/","guid":"4sTd6yKE1t-","status":"published","itunes:episodeType":"full","date_published_short":"Tue Dec 23 2025","date_published_ms":1766466289284}}],"_microfeed":{"microfeed_version":"0.1.5","base_url":"https://my-blog-dxh.pages.dev","categories":[],"subscribe_methods":[{"name":"RSS","type":"rss","url":"https://my-blog-dxh.pages.dev/rss/","image":"https://my-blog-dxh.pages.dev/assets/brands/subscribe/rss.png","enabled":true,"editable":false,"id":"ZXB_jd5cVYA"},{"name":"JSON","type":"json","url":"https://my-blog-dxh.pages.dev/json/","image":"https://my-blog-dxh.pages.dev/assets/brands/subscribe/json.png","enabled":true,"editable":false,"id":"2wSUeI7Icva"}],"description_text":"","copyright":"©2025","itunes:type":"episodic","items_sort_order":"newest_first"}}