【个人笔记】2020-8-21
【【个人笔记】2020-8-21】THU
- 模型run起来了 使用cnn做encoder 直接优化modularity 还和远哥讨论了一下公式的问题,没想到我在第二层 把远哥想成了第一层 没想到他在第五层。 具体的下次再说
- 具体的问题是训练太慢了 每次sample不需要很多的关系 但是数量最好多一些 这样训练的会快一些 但是最好的结果不太清楚
- 我觉得目前的主要问题就是太慢了 并且理论boundary不太稳定 是一个非常naive和intuitive的loss function 后续肯定有改进
- 值得一提的是我的margin设置为0 这是难以想象的 但其实是因为我的modularity和ground truth的都太小了 在1e-6这个量级 非常难以设置。 索性就直接设置为0了
- 训练的结果虽然有提升 但是感觉太烂了 需要好好优化一下 不像别的loss一样非常的简单直观
- 我觉得引入预训练的encoder会大大提升效率和性能 这句真不是废话
推荐阅读
- 宽容谁
- 我要做大厨
- 一个人的旅行,三亚
- EffectiveObjective-C2.0|EffectiveObjective-C2.0 笔记 - 第二部分
- 一个人的碎碎念
- 增长黑客的海盗法则
- 画画吗()
- 2019-02-13——今天谈梦想()
- 远去的风筝
- 三十年后的广场舞大爷