一言
心系一处,守口如瓶——莫言
记录一个好笑的bug

总所周知用nn.CrossEntropyLoss()算损失的时候需要将input_data和label展开对齐,也就是必须符合:(N,C)和(N)的格式,而在NER任务中最后往往输出的是:(batch_size,seq_len,class_num)(batch_size,seqlen),所以需要这两个view一下。我的代码是:

  outputs = model(input_ids=input_ids)
  ouputs=outputs.view(-1, num_classes)  # (batch_size*seq_length, num_classes)
  labels = labels.view(-1)  # (batch_size*seq_length)
  #print(outputs.shape, labels.shape, labels.dtype)
  loss = criterion(outputs, labels)

根本看不出有什么不对劲。 但是debug总是显示这里维度不匹配,问了好几遍GPT,他也没看出来,直到一遍遍排查,我把GPT说的所有可能的错误都说了,又发给他看。

我噗呲一下笑出来—————气笑了。 人在无语的时候真的想笑,尤其搭配上GPT这个语气,他真的好像人一样

1010 日 , 2025 19:30
thumbnail
Transformer小结
前言 终于!!前面学了那么多,终于轮到主角登场了:大名鼎鼎的Transformer。理所当然的,就要去读一下原论文:《attention is all your need》 论文地址:https://arxiv.org/pdf/1706.03762 论文摘要介…
第一次CDN被盗刷。。。

我的博客只有图片挂了CDN,我这小破博客的访问量,一个月也就花个几毛钱,我也一直一块一块的续,直到前几天,我刚充了一块钱, 过了一天就欠费了。。。本来早上都不想来工位的,奈何电脑在工位,我还跑到工位看了半天。

四张图片刷了我8个G,一张图片的大小也就是几MB,
而且还不是来自同一个IP。。。

我这小破博客也没个什么,纯个人维护,别盯着我整了。。。

911 日 , 2025 11:31
thumbnail
LSTM小结
LSTM所解决的问题(LSTM解决了RNN的什么缺陷?)     LSTM的全名是:Long Short-term Memory(LSTM),即长 短时记忆神经网络。我们知道LSTM是一种特殊的RNN,那他相较于RNN改…
thumbnail
循环神经网络小结
RNN所解决的问题     RNN是专门处理具有序列关系的输入数据而诞生的网络,它能挖掘数据中的时序信息以及语义信息 序列关系数据     什么是具有序列关系的数据呢? 主要就是符…

竟然有通过GPT来访问我的,哈哈哈 何德何能也是污染上GPT的信息源了。
file

724 日 , 2025 20:24