2024年

4月

15~16日

  • 逻辑回归(Logistic Regression) “逻辑”是音译,不代表有逻辑性 过程是回归,但目的是分类:在回归的值上加个阈值就能分类 二分类的散点和阶跃函数非常相似,但阶跃不可导,故选sigmoid作为拟合函数 然后做最大似然估计 损失函数如果用残差平方和,不是凸函数不好优化,所以取负对数似然 尤其适用于二分类问题,不要求自变量和因变量是线性关系 (https://zhuanlan.zhihu.com/p/139122386
  • 线性模型的本质 \(y=g^{-1}(w^Tx+b)\),其中\(g^{-1}\)单调可微,称为联系函数 本质:决策边界是线性 如果一个乘法式子中自变量x前的系数w只影响一个x,则是线性的;否则非线性 (https://zhuanlan.zhihu.com/p/147599207https://www.zhihu.com/question/362676570

3月

8~10日

6~7日

5日

2月

26~28日

29日

19~20日

2~6日

2023年

12月

30~31日

18~29日

1~17日

11月

24~30 日

21~23 日

  • 实验,增加webnlg数据集
  • 粗读论文:(2023) <Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!>
  • 总结论文
  • 读论文:<CODEIE: Large Code Generation Models are Better Few-Shot Information Extractors>

10~20 日

  • 读论文:(2020 T5)<Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer>
  • 实验,增加tacred数据集
  • 读论文:(2023) <Revisiting Relation Extraction in the era of Large Language Models>
  • 读论文:(2022 FLAN T5)<Scaling Instruction-Finetuned Language Models>
  • 寻找数据集
  • 总结论文

9日

6~7日

  • 实验
  • 读论文:(2020 MAMA) <LANGUAGE MODELS ARE OPEN KNOWLEDGE GRAPHS>
  • 读论文:(2021 DEEPEX) <Zero-Shot Information Extraction as a Unified Text-to-Triple Translation>
  • 重构代码
  • 读论文:(2020 OpenIE6) <OpenIE6- Iterative Grid Labeling and Coordination Analysis for Open Information Extraction>

5日

1~4日

  • 实验
  • 读论文:<DEEPSTRUCT- Pretraining of Language Models for Structure Prediction>
  • 读论文:<PIVOINE- Instruction Tuning for Open-world Information Extraction>
  • 关系抽取中的远程监督(Distant Supervision):利用已存在的KG,给数据做自动标注,属于半监督(https://blog.csdn.net/weixin_43734080/article/details/126823650

10月

30/31 日

  • 实验
  • 寻找数据集...

27日

26日

25日

  • 论文阅读:(PURE) <A Frustratingly Easy Approach for Entity and Relation Extraction>
  • 与老师交流,近一步确定研究重点与倾向
  • 论文粗读:<Streaming Social Event Detection and Evolution Discovery in Heterogeneous Information Networks>
  • 论文阅读:<A Comprehensive Survey on Automatic Knowledge Graph Construction>

23~24日

  • 为什么LLM大多是decoder-only架构:encoder的双向注意力会存在低秩问题,这可能会削弱模型表达能力(https://kexue.fm/archives/9529
  • 阅读Grapher代码
  • 跟李沐学AI
  • 阅读Grapher代码
  • LLM+KG文章继续检索

20~22日

  • RLHF和Instruction Tuning的关系:
    • 前者是通过人类反馈来训练一个奖励模型,用这个奖励模型去调整输出;
    • 后者是指导模型理解指令并(以合理的方式)作出响应,而不是“仅仅”补全文本
    • 两者可以一起使用,可以只用后者,也可以只用前者 (https://news.ycombinator.com/item?id=35925337
  • 前期调研总结整理
  • 训练Grapher模型

19日

18日

17日

16日

  • 文献精读:<Building Knowledge Graph using Pre-trained Language Model for Learning Entity-aware Relationships>
  • 文献精读:<Constructing Chinese Historical Literature Knowledge Graph Based on BERT>

15日

13日

  • 文献继续精读:Grapher
  • 卷积和池化的重新理解:不同的卷积核能够提取不同的特征信息(如边缘)或进行不同的变化(如锐化);池化用于在保留主要特征的同时减少参数和计算量,防止过拟合(https://www.zhihu.com/question/49376084https://zhuanlan.zhihu.com/p/78760534) > 个人理解:池化是一个特殊形状和步长的卷积,相当于等比例缩小图片。不太应该翻译为“池化”,可以理解为把东西都聚到一个池子里的操作
  • Llama代码简单浏览

12日

  • 文献阅读:<PiVe: Prompting with Iterative Verification Improving Graph-based Generative Capability of LLMs>
  • 文献粗读:<Packed Levitated Marker for Entity and Relation Extraction>(看不太懂)
  • 文献阅读:<Grapher: Multi-Stage Knowledge Graph Construction using Pretrained Language Models>

11日

  • 文献继续精读:<LLMs for Knowledge Graph Construction and Reasoning:Recent Capabilities and Future Opportunities>
  • 继续捣鼓LLM环境...(网站被墙,下载模型好难)
  • 长尾分布:也就是数据量分布不均衡,少部分类别有大量样本,就好像少部分人有大量资产一样(https://zhuanlan.zhihu.com/p/422558527
  • 上述文献总结
  • 准确率(accuracy),精确率(precision),召回率(recall)与F1 score:https://zhuanlan.zhihu.com/p/405658103

10日

  • 文献阅读:<Knowledge Graphs: Opportunities and Challenges>
  • 捣鼓LLM环境
  • 文献阅读:<LLMs for Knowledge Graph Construction and Reasoning:Recent Capabilities and Future Opportunities>
  • zero\one\few-shot:简单来说就是给了多少个学习样本(https://zhuanlan.zhihu.com/p/624793654

9日

  • RLHF和InstructGPT:RLHF可以分为3步:
  • ChatGPT和InstructGPT:是一对姐妹模型,他们在模型结构、训练方式上都完全一致,即都使用了指示学习(Instruction Learning)和人类反馈的强化学习(RLHF)来指导模型的训练,它们不同的仅仅是采集数据的方式上有所差异
  • 文献阅读笔记
  • 激活函数的再理解:
    • 在神经元中的位置,是输入与权重相乘并相加之后,输出之前
    • 一般引入非线性因素,来增加神经网络模型的非线性
    • 否则网络中全部是线性部件,线性的组合还是线性,与单独一个线性分类器无异,这样就做不到用非线性来逼近任意函数
    • 包括sigmoid, ReLU, softmax 等 (CNN基础——激活函数https://zhuanlan.zhihu.com/p/94087040
  • Llama部署初尝试

8日

7日