南海子三次游记
南海子三次游记
Created: February 26, 2024 10:13 AM Tags: 动物
有空闲时间去南海子公园闲逛以及是遥远的开学之前的事了。一直以来都因为各种纠结的心情,搁置了这篇游记。
🦆
我不知道该如何描述这三天。如果仅仅是出去游山玩水,那再整个寒假,我的一大“兴趣”就是以出去游玩作为理由,浪费用来做其他事的时间。不必寄情于任何东西,哪怕只是在公路旁散步,也能暂时离开联系我与所有烦心事的书桌,暂时的从电脑身边逃开。待到回去,则又以已经没有什么时间为借口,埋藏其羞愧或者犹豫的心情,将一切平展,任由时间从其上流过,直到下一个时间上的节点。
如此,我便说不清楚,在寒假期间,我是真心的想去看看身边的生物,还是仅仅是为了将完整的,极其适合学习或者研究的时间打碎的接口。所谓的兴趣也不怎么清晰起来,时不时的开始怀疑,有这么多所谓的兴趣,以“必有精进”的借口日复一日,是否只是一种在我真正想做的事和必须要做的事之间开辟一条缓冲带。
[{"url":"https://raphaelhyaan-1322456377.cos.ap-beijing.m ...
万德冬季鸟类
万德冬季鸟类
Created: February 17, 2024 12:44 PM Tags: 动物
时隔许久终于回到家乡一次,不知是因为冬季,因为此起彼伏的鞭炮声,还是因为我一直在城镇中未到野外,家乡的鸟类并没有想象中那样多。但还是有些收获。
我在之前的文章中曾说家乡没有喜鹊只有乌鸦,这是错误的。首先,喜鹊和灰喜鹊的确是这次冬季返乡遇到的最多的鸟,我在山间野路晃悠半天,鸟类也只见到了喜鹊。初次之外,最多的就是斑鸠。这与北京的鸟类相仿,但鸟的密度远远不如大运村,常常许久看不到一直鸟,尽管那边是农村。
唯一见到的一种在北京不曾见到的鸟,正是之前我印象中的“乌鸦”,其真实身份可能为八哥。之所以觉得可能是八哥,主要是从其飞翔和站立时翅膀的白色斑点和头上的一小撮毛确定的。其声音也颇为相近。于清晨集群于高处鸣叫的特点也比较符合,或许小时候觉得鸟极多正是出门上学时总能遇到集群的八哥。之所以说又是不确定,则是因为按说指名亚种为留鸟,见于长江中游水源处从四川东部及陕西南部至南方,山东并不在其分布范围内。当然,八哥在北京也常常有目击记录。
另一个偶然的惊喜则是一只疑似白头鹎的鸟,落在 ...
生成式神经网络总览
这样历时两周的生成式神经网络的学习就完成了。总的来说,完成的效率算是不错。
之所以要学习生成式神经网络,一方面是要补充一些深度学习的知识。毕竟我并不是计算机专业的学生,无论是原理上还是专业上都还需下些功夫。另一方面,可能就是填补放假之后内心的空白,缓解内心的焦虑吧。每每放假,离开校园会到家中,虽然并不常常出门,但总觉得距离社会更近,即将离开校园的压力也就更大了…
说会深度学习,在这次学习中,借助于PyTorch本身的教程,网络中一些实现的代码和各类AI工具,对尝试对一些简单的模型使用PyTorch重现。尽管许多重现不能达到原论文的效果,实践能力上的提升和理解的加深依旧是不错的收获。可惜由于时间因素,有许多代码没能充分理解,也有些重现的代码中存在一些问题。Diffusion的PyTorch代码至今没有完善,也只能等待之后有时间时再去进一步研究了;而最后一张各种的GAN,如果在接下来的工作中没有使用,可能不会进一步学习了吧。
从下周开始就要开始开始实现毕设了。不知道能否顺利的完成啊…
参考网站
Papers with Code - The
latest in Machine ...
Chapter 10 Advanced GANs 各种各样的GAN
Chapter 10 Advanced GANs
各种各样的GAN
在本次学习的最后,回归最初学习的目的,来尝试了解各种各样的GAN网络。我可能会尝试实现其中的一些模型。
三个的建立在早期论文思想上的重要模型ProGAN → StyleGAN → StyleGAN2
了解ProGAN模型。
理解ProGAN如何被改造以构建StyleGAN
探索StyleGAN如何被调整以创建StyleGAN2
了解这些模型的关键贡献,包括渐进式训练、自适应实例归一化、权重调制和解调以及路径长度正则化。’
两个引入了注意力机制的模型SAGAN → BigGAN
了解Self-Attention GAN (SAGAN)的架构,该架构将注意力机制纳入GAN框架。
了解BigGAN如何扩展SAGAN论文中的想法以产生高质量的图像。
两个融合了VAE,Transformers和GAN思想的模型VQ-GAN → ViT VQ-GAN
了解VQ-GAN如何使用码本将图像编码为可以使用Transformer建模的离散序列的token。
了解ViT VQ-G ...
Chapter 9 Transformers
Chapter 9 Transformers
由于文本生成不是我的主要学习目的,本章学习不会尝试使用PyTorch复现。另一个原因是Diffusion的PyTorch版主直到本章开始学习都不能正常工作。考虑到目前对一些知识还处于一知半解的状态,且我的学习目的也并非实现Diffusion或者GPT这些网络,故暂时不会进行使用PyTorch的重现。
尽管如此,我还是在原文提供的GPT上进行一些“随心所欲”,或者说“完全不知道原理只是瞎改”的,修改。尽管我现在还有得到结果,但可以预料到势必会导致表现变差。
PyTorch的重现已经添加,基本架构相同,只是作用在另一个任务上。
介绍
Transformer神经网络是一种不需要循环或者卷积架构,依赖于注意力机制的神经网络。是目前用于文本生成的最重要的架构。
GPT 全程Generative Pre-Training
是一种能够在大量文本数据上训练的Transformer架构。在预训练期间,模型被训练为在给定先前单词的情况下预测序列中的下一个单词。此过程称为语言建模,用于教导模型理解自然语言的结构和模式 ...
Chapter 8 Diffusion Models 扩散模型
Chapter 8 Diffusion Models
扩散模型
这个模型很有意思,我会尝试使用PyTorch实现。
介绍
扩散模型是过去十年中引入的最具影响力和影响力的图像生成生成建模技术之一。扩散这个名字的灵感来自于热力学扩散特性
突破性的扩散模型论文于 2020
年夏天发表。该论文揭示了扩散模型和基于分数的生成模型之间的深层联系,作者训练了一个扩散模型,可以在多个数据集胜过竞争对手
GAN,称为去噪扩散概率模型 (DDPM)
扩散电视
我们再次从一个小故事开始。
💡
您站在一家出售电视机的电子商店里。这里有数百台相同的电视机按顺序连接在一起,一直延伸到商店的后面。更奇怪的是,最前面的几台电视机似乎只显示随机的静态噪声。
店主解释说,这是新的DiffuseTV型号。在制造过程中,DiffuseTV接触了数千张以前的电视节目的图像,但是这些图像都被逐渐加入了随机的静态噪声,直到它们与纯随机噪声无法区分。然后,电视机被设计成以小步骤消除随机噪声,尝试预测在加入噪声之前图像是什么样子的。
可以看到,当走进商店时,每台电视机上的图像 ...
Chapter 7 Energy-Based Models 基于能量的模型
Chapter 7
Energy-Based Models 基于能量的模型
当前笔记基本没有涉及对代码的讨论。但这个模型跟我的需求在原理上很契合,在进一步尝试时可能会补充这份笔记。
介绍
基于能量的模型是一类广泛的生成式模型。它借鉴了物理系统建模的关键思想,即事件的概率可以使用玻尔兹曼分布来表示。玻尔兹曼分布是一种将实值能量函数归一化到
\([0,1]\)的特定函数。
Long-au-Vin 的长跑队
我们依然从一个小故事开始说起。
💡 黛安·米克斯是 Long-au-Vin
的长跑队主教练,以其卓越的训练能力而闻名。她的方法是基于评估每个运动员的能量水平,她能准确地感知运动员比赛后剩余的能量。她定期训练自己,通过测量已知精英运动员和俱乐部最佳运动员的能量感知能力之间的对比。
她的真正的魔力在于她能将平庸的跑者转变为顶级跑者。她测量运动员当前的能量水平,找出运动员需要做出的最佳调整以提高他们下次的表现。这个过程会一直持续,直到最终运动员无法与世界级跑者区分。
基于能量的模型
基于能量的模型使用玻尔兹曼分布来对真实分布建模:
...
Chapter 6 Normalizing Flow Models 标准化流模型
Chapter 6
Normalizing Flow Models 标准化流模型
标准化流模型是一种生成模型,用于将一个原始分布通过学习的变换映射到另一个已知的概率分布。它可以把简单的概率密度(比如高斯分布)形式转化成某种复杂的分布形式。所以或许能把标准化流模型称为正态流模型。
本章笔记不包括使用PyTorch的重现,但是本章代码并不困难,未来有兴趣或者会使用这部分知识时会进行复现。
背景故事
我们依然从一个小故事开始讲起,这次故事的主角是雅各布和F.L.O.W.机器
💡
雅各布是一个数字绘画提供商,但有所不同。你递给店主一套你最喜欢的画,他把它们穿过机器。F.L.O.W.机器开始嗡嗡作响,过了一会儿,输出一组随机生成的数字。店主递给你数字表,然后开始走到收银台,计算你在数字化过程和F.L.O.W.盒子中欠他的钱。你会问店主,你应该如何处理这一长串数字,以及如何取回你最喜欢的画作。
店主翻了个白眼,好像答案应该是显而易见的。他走回机器前,把长长的数字表传了过去,这次是从对面传来的。你再次听到机器的嗡嗡声,困惑地等待着,直到你原来的画作从 ...
Chapter 5 Autoregressive Models 自回归模型
Chapter 5
Autoregressive Models 自回归模型
在本章中,我们将探讨两种自回归模型,LSTM
~~Literary Society for Troublesome Miscreants~~ long short-term
memory networks 和
PixelCNN,而另一种非常成功的自回归模型transformer会在之后的内容中提到。
Long Short-Term
Memory Network (LSTM)
介绍
流氓文学会
💡
接下来我们参考简单的故事。考虑一位监狱的总管先生,他利用手中的囚犯,发明了一种独特的小说撰写方式,被他称为流氓文学会********Literary
Society for Troublesome
Miscreants,简称LSTM。********在他的设计下,囚犯将湮灭人性,而成为LSTM的一个节点。
每天,这位总管先生将小说的最后一个单词抛给LSTM,LSTM中的囚犯根据这个单词,其他囚犯的观点和自己旧有的观点,给出自己新的观点;并根据新词和其他囚犯的观点决定将多少观 ...
Chapter 4 Generative Adversarial Networks 生成对抗网络
Chapter
4 Generative Adversarial Networks 生成对抗网络
GAN的介绍
GAN包含两个部分生成器Generator和判别器Discriminator。生成器基于随机噪音生成图像,判别器判断生成器生成的图像是否为真实存在的图像。生成器的训练目的是尽可能生成判别器识别不出来的图像,而判别器的训练目的是尽可能区分生成器生成的图像和真实存在的图像。
Deep Convolutional GAN(DCGAN)
在这一部分,我们会跟随作者的步伐使用Keras构建一个DCGAN网络。同时我也会尝试使用PyTorch重现这些代码。
数据集
我们使用Images of LEGO Bricks dataset数据集。
数据集加载
Tensorflow的数据集加载方法包括使用image_dataset_from_directory的数据加载和使用preprocess函数的预处理
1234567891011121314train_data = utils.image_dataset_from_directory( & ...