对于主动学习的一些思考 主动学习发展已经约 30 年,作为领域里面的无名小卒,自己也对这个方向有大概四五年的了解。 近些年发现本领域的文章以灌水居多,真正提出问题和解决问题的少之又少(虽然绝大多数领域都是这样)。 目前有一些人对 AL 的实用性和表现提出了质疑,并且也收获了一些认可。 那么主动学习领域到底会何去何从? 本文我会整理总结一下自己的看法,或许有一些观点缺乏证据支持,若日后需要深入,则会补上。 2023-02-11 Machine Learning #active-learning #thinking
Spiking Neural Network 此处记录对于 Spiking Neural Network(脉冲神经网络)的学习。 SNN 号称是 BP 网络之后的第三代神经网络,名头很响,但好像并没有看到太多应用。 这里不求甚解,只希望把最基本的与 ANN 的对应关系简要了解。 2023-01-29 Machine Learning #machine-learning #neural-network #spiking-neural-network
Boltzmann Machine 此处记录对于 Boltzmann Machine,即玻尔兹曼机的学习。 在互联网上并没有找到太多很好的资料,看了半天仍旧云里雾里,这里还是以我自己个人了解模型的思路来进行学习。 以目前的了解来看,这一系列模型用得并不太多,只是偶尔被拉出来提到,所以还是得看一下。 2023-01-28 Machine Learning #machine-learning #neural-network #boltzmann-machine #deep-belief-net
Forward Forward Algorithm Hinton 在 NeurIPS 2022 提出了 Forward Forward Algorithm[1],好像还挺有意思,在此做一个学习。 2023-01-12 Machine Learning #machine-learning #neural-network #deep-learning
训练集样本对于测试集 loss 的影响 主动学习中通常要评估样本的重要性/信息量,以选择最有价值样本使得模型提升最大。 这一点在样本可解释性中也有体现,即“什么样的样本对于训练来说更加重要?” 本文是几篇论文【1,2】的阅读笔记,从梯度的角度阐释样本对于最终测试集表现的影响。 2022-11-21 Machine Learning #machine-learning #neural-network #loss #gradient
机器学习中的 Lipschitz Continuity 在 discriminator 的学习使用中,经常会见到这个 Lipschitz Condition,在此处做一个学习。 2022-11-07 Machine Learning #machine-learning #neural-network #theory
LSTM 最近用到的 ASP-MTL 模型中使用 LSTM 作为特征提取器。 自己对于 RNN 的认知很不成体系,在此进行一个梳理。 对 LSTM 来做一个学习,主要针对结构和预测两方面。 2022-10-27 Machine Learning #machine-learning #neural-network #rnn #lstm