<?xml version='1.0' encoding='UTF-8'?>
<?xml-stylesheet href="/rss/stylesheet/" type="text/xsl"?>
<rss xmlns:content='http://purl.org/rss/1.0/modules/content/' xmlns:taxo='http://purl.org/rss/1.0/modules/taxonomy/' xmlns:rdf='http://www.w3.org/1999/02/22-rdf-syntax-ns#' xmlns:itunes='http://www.itunes.com/dtds/podcast-1.0.dtd' xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:dc='http://purl.org/dc/elements/1.1/' xmlns:atom='http://www.w3.org/2005/Atom' xmlns:podbridge='http://www.podbridge.com/podbridge-ad.dtd' version='2.0'>
<channel>
  <title>untitled</title>
  <language>en-us</language>
  <generator>microfeed.org</generator>
  <itunes:type>episodic</itunes:type>
  <itunes:explicit>false</itunes:explicit>
  <atom:link rel="self" href="https://my-blog-dxh.pages.dev/rss/" type="application/rss+xml"/>
  <link>https://my-blog-dxh.pages.dev</link>
  <itunes:image href="https://my-blog-dxh.pages.dev/assets/default/channel-image.png"/>
  <image>
    <title>untitled</title>
    <url>https://my-blog-dxh.pages.dev/assets/default/channel-image.png</url>
    <link>https://my-blog-dxh.pages.dev</link>
  </image>
  <copyright>©2025</copyright>
  <item>
    <title>AI文章深度研究报告 - Training the Untrainable: Introducing Inductive Bias via Representational Alignment</title>
    <guid>BKaan3y6EL7</guid>
    <pubDate>Fri, 26 Dec 2025 00:10:02 GMT</pubDate>
    <itunes:explicit>false</itunes:explicit>
    <description>
      <![CDATA[<h1>AI文章深度研究报告 - Training the Untrainable: Introducing Inductive Bias via Representational Alignment - 2025年12月26日</h1><p><strong>作者</strong>: Manus AI</p><p><strong>研究日期</strong>: 2025年12月26日</p><hr><h2>1. 元信息</h2><table><thead><tr><th>项目</th><th>详情</th></tr></thead><tbody>
<tr><td><strong>文章标题</strong></td><td>Training the Untrainable: Introducing Inductive Bias via Representational Alignment</td></tr>
<tr><td><strong>作者</strong></td><td>Vighnesh Subramaniam, David Mayo, Colin Conwell, Tomaso Poggio, Boris Katz, Brian Cheung, Andrei Barbu</td></tr>
<tr><td><strong>所属机构</strong></td><td>MIT CSAIL, CBMM, Johns Hopkins University</td></tr>
<tr><td><strong>发布会议</strong></td><td>NeurIPS 2025 (Conference and Workshop on Neural Information Processing Systems)</td></tr>
<tr><td><strong>arXiv编号</strong></td><td>2410.20035</td></tr>
<tr><td><strong>发布日期</strong></td><td>2024年10月26日 (v1), 2025年10月23日 (v2)</td></tr>
<tr><td><strong>项目主页</strong></td><td><a href="https://untrainable-networks.github.io" target="_blank">https://untrainable-networks.github.io</a></td></tr></tbody></table><h2>2. 执行摘要</h2><p>本研究报告深入分析了由MIT计算机科学与人工智能实验室（CSAIL）主导并发表于NeurIPS 2025的突破性论文《Training the Untrainable: Introducing Inductive Bias via Representational Alignment》。该论文直面了深度学习领域一个长期存在的挑战：为何某些神经网络架构在特定任务上表现不佳，甚至被认为是“不可训练”的。传统观点认为，架构的适用性由其固有的归纳偏置（Inductive Bias）决定，例如卷积神经网络（CNN）在视觉任务中的平移不变性。然而，该研究提出了一种名为“引导”（Guidance）的创新方法，从根本上挑战了这一认知。</p><p>“引导”方法的核心思想是通过一个“引导网络”（Guide Network）向一个“目标网络”（Target Network）传递归纳偏置，而无需修改目标网络的架构。其机制是通过最小化一个复合损失函数来实现，该函数不仅包含目标网络的任务损失，还包括其内部表征与引导网络对应层表征之间的相似性度量。引人注目的是，即使引导网络未经训练，仅凭其架构本身蕴含的先验知识，就足以显著改善目标网络的性能。研究通过一系列严谨的实验证明了该方法的有效性：它成功地解决了全连接网络（FCN）在ImageNet上的过拟合问题，将普通CNN的性能提升至接近ResNet的水平，并缩小了RNN与Transformer在特定任务上的性能差距。更重要的是，研究发现，仅仅在训练初期进行短暂的“引导”，就能为目标网络提供一个更优的初始化状态，从而在后续的独立训练中取得成功。这一发现不仅为重新审视和利用那些曾被认为“过时”或“无效”的网络架构开辟了新途径，还为理解神经网络的优化过程、架构设计以及归纳偏置的本质提供了强大的数学工具和全新的理论视角。该研究的深远意义在于，它可能最终导向一种更为自动化和系统化的神经网络架构设计范式，从而加速人工智能领域的发展。</p><h2>3. 文章背景和研究动机</h2><p>深度学习的成功在很大程度上依赖于为特定任务精心设计的神经网络架构。从AlexNet在ImageNet竞赛中一举成名，到ResNet通过残差连接解决深度网络的梯度消失问题，再到Transformer架构凭借自注意力机制在自然语言处理领域取得统治地位，架构的演进一直是推动AI能力边界扩展的核心驱动力。这些成功的架构之所以有效，关键在于它们内置了与任务数据内在结构相匹配的<strong>归纳偏置</strong>。</p><blockquote>归纳偏置（Inductive Bias）是学习算法做出的一系列假设，用以在面对未曾见过的数据时进行预测。它指导算法在庞大的假设空间中优先选择某些类型的解决方案。例如，CNN的局部连接和权值共享假设了图像数据具有局部性和平移不变性；循环神经网络（RNN）的循环结构则假设了序列数据具有时序依赖性。</blockquote><p>然而，这种对特定架构的依赖也带来了局限性。当一个架构的归纳偏置与任务特性不匹配时，其性能往往会急剧下降，甚至变得“不可训练”。一个典型的例子是，结构简单的全连接网络（FCN）虽然理论上是通用函数逼近器，但在处理高维数据如图像时，由于缺乏合适的空间结构偏置，极易陷入过拟合。相反，一些设计不当的深度网络（如没有残差连接的普通深度CNN）则可能因为优化困难而导致欠拟合。长期以来，业界的普遍共识是，解决这类问题的唯一途径就是设计新的、更好的架构，或者对现有架构进行修补。这种“架构决定论”虽然催生了许多创新，但也使得架构设计本身更像一门“玄学”，依赖于研究者的经验和直觉，缺乏系统性的理论指导。</p><p>正是基于这一困境，MIT的研究团队提出了一个根本性的问题：<strong>我们能否将一个成功架构的“优良基因”（即归纳偏置）“移植”到另一个架构中，从而使其“脱胎换骨”，变得可以训练并表现出色？</strong> 这便是《Training the Untrainable》这篇论文的核心研究动机。研究者们试图打破架构与归纳偏置之间的刚性绑定，探索一种更为灵活和通用的方法来引入和利用归纳偏置。他们假设，网络的“可训练性”不仅取决于其静态的结构，更可能取决于其在复杂参数空间中的“位置”。如果能通过某种方式将一个“不可训练”的网络引导到一个“有利”的参数区域，它或许就能克服自身的结构缺陷，实现有效学习。这一思想的提出，为解决神经网络的训练难题和自动化架构设计开辟了一条全新的、充满想象力的道路。</p><h2>4. 核心内容详细分析</h2><p>论文的核心贡献在于提出并验证了“引导”（Guidance）这一全新的训练范式。本节将详细解析其技术方法、关键发现与核心创新点。</p><h3>4.1. “引导”方法的技术实现</h3><p>“引导”方法的数学形式简洁而深刻。它通过在标准的目标任务损失函数之外，额外引入一个“引导损失”（Guidance Loss）项，来约束目标网络的学习过程。假设我们有一个目标网络 $T$ 和一个引导网络 $G$。目标网络 $T$ 的总损失函数 $\mathcal{L}_{total}$ 定义为：</p><p>$$ \mathcal{L}<em>{total} = \mathcal{L}</em>{task}(T(x), y) + \lambda \sum<em>{l=1}^{L} d(T</em>l(x), G_l(x)) $$</p><p>其中：
<ul><li>$x$ 是输入数据， $y$ 是对应的标签。</li>
<li>$\mathcal{L}_{task}$ 是目标网络在具体任务上的标准损失函数，例如分类任务中的交叉熵损失。</li>
<li>$T<em>l(x)$ 和 $G</em>l(x)$ 分别是输入 $x$ 在目标网络和引导网络的第 $l$ 层所产生的内部表征（representation）。</li>
<li>$d(\cdot, \cdot)$ 是一个神经距离函数，用于衡量两个网络在同一层级的表征之间的相似性。论文中主要使用了中心核对齐（Centered Kernel Alignment, CKA）作为距离函数，CKA能够有效地度量两个表征空间之间的相似性，且对表征的旋转和各向同性缩放不敏感。</li>
<li>$\lambda$ 是一个超参数，用于平衡任务损失和引导损失的权重。</li>
<li>$L$ 是网络的总层数。</li></ul><p>在训练过程中，<strong>引导网络 $G$ 的参数是冻结的（frozen）</strong>，不进行任何更新。只有目标网络 $T$ 的参数会根据 $\mathcal{L}_{total}$ 的梯度进行优化。这意味着，目标网络在努力学习完成特定任务的同时，还被“鼓励”去模仿引导网络组织和构建信息的方式。这种模仿发生在网络的内部“思维过程”（即各层表征）中，而非仅仅模仿最终的输出结果。</p><h3>4.2. 关键发现与实验证据</h3><p>研究团队设计了一系列实验，系统地验证了“引导”方法的有效性和普适性，其结果令人信服。</p><p><strong>发现一：引导能够“拯救”过拟合的全连接网络（FCN）</strong></p><ul><li><strong>实验设置</strong>: 在极具挑战性的ImageNet图像分类任务上训练一个深度的全连接网络（FCN）。</li>
<li><strong>基线结果</strong>: 标准的FCN在训练开始后几乎立刻就发生了严重的过拟合，测试准确率无法提升。</li>
<li><strong>引导效果</strong>: 使用一个未经训练的ResNet-18作为引导网络来引导FCN。结果显示，被引导的FCN成功克服了过拟合，其训练过程变得稳定，最终在ImageNet上达到了可观的分类精度。这证明了引导方法能够将ResNet架构中蕴含的强大空间结构偏置成功地转移给结构简单的FCN。</li></ul><p><strong>发现二：短暂引导即可实现持久优化，揭示初始化重要性</strong></p><ul><li><strong>实验设计</strong>: 研究人员进行了一项更为精巧的实验，他们只在训练的最开始阶段（例如前几个epoch）对FCN进行引导，然后便移除引导损失，让FCN独立完成后续的训练。</li>
<li><strong>惊人结果</strong>: 即使只是短暂的“热身”，FCN在后续的独立训练中依然保持了良好的性能，没有出现过拟合。这一现象有力地证明了“引导”的主要作用是<strong>将目标网络推向一个更有利的参数空间区域</strong>，为其提供了一个高质量的初始化状态。一旦到达这个“甜蜜点”，网络便能依靠自身的学习能力走向收敛。</li></ul><p><strong>发现三：引导的普适性——提升多种架构性能</strong></p><p>为了证明该方法的通用性，研究者将其应用于多种不同的架构组合中：</p><ul><li><strong>提升普通CNN</strong>: 使用ResNet作为引导网络，可以显著提升没有残差连接的普通深度CNN的性能，使其逼近ResNet的准确率。</li>
<li><strong>弥合RNN与Transformer差距</strong>: 在一些传统上被认为是RNN优势领域的序列任务中，使用RNN引导Transformer，可以帮助Transformer更好地捕捉序列依赖关系，提升其性能。</li></ul><p>这些实验共同描绘了一幅清晰的图景：归纳偏置不再是特定架构不可分割的属性，而是可以像知识一样在不同架构间流动和传递的“可转移资产”。</p><h3>4.3. 核心创新点分析</h3><p>“引导”方法相较于之前的相关技术，具有几个鲜明的创新点。</p><p><strong>创新点一：与知识蒸馏（Knowledge Distillation）的本质区别</strong></p><p>知识蒸馏是一种常见的模型压缩和知识转移技术，它通过让一个小的“学生”网络模仿一个大的“教师”网络的输出（logits）来进行学习。而“引导”方法与之有本质不同：</p><table><thead><tr><th>对比维度</th><th>知识蒸馏 (Knowledge Distillation)</th><th>引导 (Guidance)</th></tr></thead><tbody>
<tr><td><strong>模仿对象</strong></td><td>最终输出 (Logits)</td><td>内部逐层表征 (Representations)</td></tr>
<tr><td><strong>知识来源</strong></td><td>教师网络对数据的“判断”</td><td>引导网络内部的“信息处理流程”</td></tr>
<tr><td><strong>对引导/教师网络的要求</strong></td><td>必须是经过充分训练的、高性能的网络</td><td><strong>可以是未经训练的随机网络</strong></td></tr></tbody></table><p>“引导”方法最大的创新在于证明了<strong>即使是未经训练的随机网络，其架构本身就蕴含了宝贵的归纳偏置</strong>。知识蒸馏如果使用一个未经训练的教师，学生网络将学不到任何有效信息，因为教师的输出是随机的。而“引导”方法在这种情况下依然有效，因为它利用的是引导网络固有的结构信息，而非其学到的具体知识。</p><p><strong>创新点二：分离架构偏置与学习知识</strong></p><p>通过对比使用“已训练”和“未训练”的引导网络，该方法提供了一个独特的研究工具，可以定量地分析和分离两种不同类型的知识：
<ul><li> <strong>架构偏置（Architectural Bias）</strong>: 源自网络结构本身的先验，可以通过使用“未训练”的引导网络来传递。</li>
<li> <strong>学习知识（Learned Knowledge）</strong>: 源自网络在数据上训练后学到的模式，可以通过对比“已训练”和“未训练”引导网络的效果来衡量其贡献。</li></ul><p>这种分离能力为深入理解神经网络的学习机制提供了前所未有的视角。</p><p><strong>创新点三：从“架构设计”到“偏置编程”</strong></p><p>这项工作预示着一种范式转变的可能。未来的神经网络研究或许可以从专注于手工设计日益复杂的架构，转向研究如何通过组合、引导不同的基础架构来为特定任务“编程”所需的归纳偏置。这使得自动化架构搜索（Neural Architecture Search, NAS）和模型设计过程变得更加系统化和有理论依据，有望摆脱当前依赖大规模算力进行暴力搜索的局面。</p><h2>5. 影响力评估</h2><p>《Training the Untrainable》这篇论文的发表，不仅仅是提出了一种新颖的训练技术，更对人工智能的学术研究和产业应用产生了深远的影响。其影响力体现在对现有理论的挑战、对未来研究方向的启示以及在实践中降本增效的巨大潜力。</p><h3>5.1. 对学术界的影响</h3><p><strong>1. 重新定义“架构”与“学习”的关系</strong></p><p>该研究从根本上动摇了“架构决定论”的基石。过去，研究者们普遍认为，一个网络的性能上限很大程度上由其架构的优劣所决定。而“引导”方法的成功表明，学习过程（尤其是初始化阶段）与静态架构同样重要，甚至可以在一定程度上弥补架构的固有缺陷。这促使学术界重新审视和思考网络学习的动态过程，将研究重点从单纯的架构创新，扩展到对优化景观（Optimization Landscape）、初始化策略和训练动力学（Training Dynamics）的更深层次探索。</p><p><strong>2. 催生新的研究领域：归纳偏置的“可编程性”</strong></p><p>论文将归纳偏置从一个与架构紧密耦合的静态概念，转变为一个可以动态传递和组合的“可编程”元素。这为学术界开辟了一个全新的研究方向。未来的研究可能会集中在以下几个问题上：
<ul><li>  <strong>偏置的度量与分解</strong>: 如何精确地度量不同架构中包含的归纳偏置？能否将复杂的偏置分解为更基础的“偏置原子”？</li>
<li>  <strong>偏置的组合与编辑</strong>: 我们能否像编写程序一样，通过组合不同的引导网络来为一个任务精确地“调配”所需的归纳偏置组合？</li>
<li>  <strong>偏置的通用理论</strong>: 是否存在一个统一的理论框架来描述所有归纳偏置的来源、作用和传递机制？</li></ul><p><strong>3. 为神经网络理论研究提供新工具</strong></p><p>“引导”方法本身就是一个强大的分析工具。通过系统性地改变引导网络和目标网络的组合，研究者可以像做“控制实验”一样，精确地探究不同架构组件（如卷积、自注意力、残差连接）对学习过程的具体贡献。这为验证和发展关于深度学习工作原理的理论（例如信息瓶颈理论、深度网络几何学等）提供了强有力的实证手段。</p><h3>5.2. 对产业界的意义</h3><p>在追求模型性能和效率的产业界，“引导”方法同样展现出巨大的应用价值和商业潜力。</p><p><strong>1. 降低模型研发和部署成本</strong></p><ul><li>  <strong>复用现有模型</strong>: 企业可以利用“引导”方法，将一个在特定任务上表现优异的大型、复杂模型的“能力”，高效地转移到一个更小、更轻量级的、原本不适用的廉价架构上。这在模型压缩和边缘计算部署等场景下意义重大，可以在保持性能的同时，显著降低推理成本和能耗。</li>
<li>  <strong>加速模型迭代</strong>: 在开发新模型时，无需从零开始设计和验证全新的架构。团队可以快速地在标准架构（如FCN或普通CNN）上，通过从不同来源“引导”归纳偏置来进行原型验证，从而大大缩短研发周期。</li></ul><p><strong>2. 提升自动化机器学习（AutoML）水平</strong></p><p>当前的神经架构搜索（NAS）技术大多依赖于大规模的计算资源进行“暴力”搜索，效率低下且成本高昂。“引导”方法为NAS提供了一种更具指导性的新范式。未来的AutoML系统可以不再是盲目地搜索架构，而是智能地搜索“引导策略”——即为特定任务找到最佳的引导网络组合。这将使AutoML过程更高效、更经济，也更容易解释。</p><p><strong>3. 解决长尾问题和数据稀疏场景的挑战</strong></p><p>在许多实际业务场景中，数据往往是稀疏的或呈长尾分布。在这些情况下，从头开始训练一个表现良好的复杂模型非常困难。利用“引导”方法，可以从一个在通用大规模数据集上预训练好的模型中提取强大的归纳偏置，并将其“注入”到一个针对特定稀疏任务的小模型中，从而显著提升其在数据不足情况下的学习效率和泛化能力。</p><p><strong>下表总结了“引导”方法对学术界和产业界的核心影响：</strong></p><table><thead><tr><th>领域</th><th>核心影响点</th></tr></thead><tbody>
<tr><td><strong>学术界</strong></td><td>1. <strong>理论革新</strong>: 挑战“架构决定论”，深化对学习动力学的理解。<br>2. <strong>新领域开拓</strong>: 开启“可编程归纳偏置”的研究方向。<br>3. <strong>新工具提供</strong>: 为神经网络理论分析提供强大的控制实验手段。</td></tr>
<tr><td><strong>产业界</strong></td><td>1. <strong>降本增效</strong>: 通过模型复用和加速迭代，降低研发与部署成本。<br>2. <strong>AutoML升级</strong>: 为神经架构搜索提供更高效、更经济的新范式。<br>3. <strong>解决实际难题</strong>: 提升模型在数据稀疏和长尾场景下的性能。</td></tr></tbody></table><h2>6. 批判性思考</h2><p>尽管“引导”方法取得了令人瞩目的成功并展示了巨大的潜力，但作为一个开创性的新方向，我们仍需对其进行审慎的批判性思考，探讨其潜在的局限性、待解决的问题以及可能存在的争议点。</p><h3>6.1. 优势与创新</h3><ul><li><strong>范式转变</strong>: 最核心的优势在于其思想的颠覆性，将归纳偏置从架构的静态属性解放出来，变为可动态传递的知识，为整个领域带来了全新的视角。</li>
<li><strong>高效与通用</strong>: 实验证明该方法在多种架构和任务上均有效，特别是“短暂引导”即可生效的特性，显示了其作为一种高效初始化策略的巨大潜力。</li>
<li><strong>强大的解释性</strong>: 该方法不仅提升了性能，更提供了一个分析和理解神经网络的工具，能够帮助研究者分离和研究架构偏置与学习知识，具有很高的科学价值。</li></ul><h3>6.2. 局限性与待解问题</h3><p><strong>1. 引导损失（CKA）的普适性与计算成本</strong></p><p>论文主要采用中心核对齐（CKA）作为衡量表征相似性的距离函数。虽然CKA已被证明在很多场景下是有效的，但它是否是所有任务和架构组合的最佳选择，仍是一个开放问题。不同的距离函数可能对应着不同类型的知识转移。此外，计算两层表征之间的CKA相似度需要计算格拉姆矩阵（Gram Matrix），当批次大小（Batch Size）和表征维度较大时，这会带来额外的计算开销和内存消耗，可能会影响训练效率。</p><p><strong>2. “引导网络”的选择策略</strong></p><p>如何为特定任务选择或设计最合适的“引导网络”？这是一个关键但尚未解决的问题。论文的实验虽然展示了其可行性，但选择引导网络的过程仍依赖于研究者的先验知识。一个理想的系统应该能够自动化这一过程。未来需要研究是否存在一种系统性的方法来构建一个“引导网络库”，并根据目标任务的特性自动推荐最佳的引导者。</p><p><strong>3. 理论解释的深度</strong></p><p>论文通过实验现象有力地证明了方法的有效性，并给出了“引导到有利参数空间”的直观解释。然而，其背后更深层次的数学原理仍有待挖掘。例如，为什么某些架构的随机初始化状态就包含了对其他架构有益的偏置？“有利的参数空间区域”在数学上应如何精确定义和刻画？这些问题需要更深入的理论分析，可能需要结合动态系统理论、信息几何学或统计物理学等工具来解答。</p><h3>6.3. 潜在的争议与风险</h3><p><strong>1. 是否会扼杀架构创新？</strong></p><p>一个潜在的担忧是，如果我们可以轻易地将任何先进架构的优势“注入”到简单的基础架构中，是否会降低研究者们从头开始设计全新、革命性架构的动力？长此以往，可能会导致领域内架构多样性的减少，陷入对少数几种“引导源”架构的依赖。</p><p><strong>2. 负迁移（Negative Transfer）的风险</strong></p><p>并非所有的“引导”都是有益的。如果引导网络的归纳偏置与目标任务完全不匹配，强行引导可能会损害目标网络的性能，产生“负迁移”现象。例如，用一个为图像任务设计的CNN去引导一个处理纯文本任务的网络，可能会引入无用甚至有害的偏置。因此，在使用该方法时，需要建立一套机制来评估引导的适宜性，并监测和避免负迁移的发生。</p><h2>7. 未来展望</h2><p>“引导”方法的提出为未来的AI研究开辟了广阔的空间。基于当前的成果和思考，我们展望以下几个值得探索的研究方向：</p><ul><li> <strong>自适应引导（Adaptive Guidance）</strong>: 开发能够根据训练动态自动调整引导权重（$\lambda$）甚至引导策略的算法。例如，在训练初期给予较强的引导，随着目标网络逐渐“上道”，再慢慢减弱引导的强度，最终让网络自由探索。</li></ul><ul><li> <strong>多源引导与偏置组合</strong>: 研究同时使用多个引导网络来引导一个目标网络的可行性。这允许多种不同类型的归纳偏置（例如，空间结构偏置和时序依赖偏置）被同时注入一个网络中，从而创造出具有全新复合能力的模型。</li></ul><ul><li> <strong>逆向引导（Reverse Guidance）</strong>: 探索是否可以反向使用该方法，即通过分析一个训练好的、表现优异的“黑箱”模型在引导不同基础架构时的表现，来“解码”和理解其内部到底学到了何种归纳偏置。</li></ul><ul><li> <strong>与生成模型的结合</strong>: 将“引导”思想应用于生成模型，例如GANs或扩散模型。可以通过引导来控制生成内容的风格、结构或其他高层属性，为可控内容生成提供新的途径。</li></ul><h2>8. 参考资料与延伸阅读</h2><p>[1] Subramaniam, V., Mayo, D., Conwell, C., Poggio, T., Katz, B., Cheung, B., & Barbu, A. (2025). <em>Training the Untrainable: Introducing Inductive Bias via Representational Alignment</em>. In Advances in Neural Information Processing Systems.
[2] Kornblith, S., Norouzi, M., Lee, H., & Hinton, G. (2019). <em>Similarity of Neural Network Representations Revisited</em>. In Proceedings of the 36th International Conference on Machine Learning (ICML).
[3] Hinton, G., Vinyals, O., & Dean, J. (2015). <em>Distilling the Knowledge in a Neural Network</em>. arXiv preprint arXiv:1503.02531.
[4] Mitchell, T. M. (1980). <em>The need for biases in learning generalizations</em>. Rutgers University Technical Report.
[5] MIT News. (2025, December 18). <em>Guided learning lets “untrainable” neural networks realize their potential</em>. <a href="https://news.mit.edu/2025/guided-learning-lets-untrainable-neural-networks-realize-their-potential-1218" target="_blank">https://news.mit.edu/2025/guided-learning-lets-untrainable-neural-networks-realize-their-potential-1218</a>
]]>
    </description>
    <link>https://my-blog-dxh.pages.dev/i/ai-training-the-untrainable-introducing-BKaan3y6EL7/</link>
  </item>
</channel>
</rss>