View Code? Open in Web Editor
NEW
[TKDE] Knowledge Graph Augmented Network Towards Multiview Representation Learning for Aspect-based Sentiment Analysis
Home Page: https://ieeexplore.ieee.org/document/10056277
kgan's Introduction
👨🎓 I'm Qihuang Zhong, a phD student at Wuhan University, China.
🧑💻 My research interests lie in the deep learning for NLP, such as discriminative language model pretraining, model adaptation, aspect-based sentiment analysis and etc.
🤔 More recently, I mainly focus on chain-of-thought and large language model.
👉 [Google Scholar ] [Page ]
kgan's People
Contributors
kgan's Issues
您好,我目前在使用您的模型进行训练,但是关于模型的Bert实现我并没有在代码中找到,请问模型的Bert实现何时能够分享?
你好,请问怎么使用四个git-lfs文件或者怎么将git-lfs文件转化成npy和npz文件,非常感谢解答
你好 谷歌盘里面只看到 laptop的 _graph_analogy.pkl 请问有其余两个数据集的吗
你好,请问在代码中is_bert=1时 ,loss不下降,acc和f1很低 ,是怎么回事
dataset , graph_embeddings , n_train , n_test = build_dataset (args = args , is_bert = True )
您好,下载了您的代码,但是没有看见twitter数据集,请问Twitter数据集在哪可以下载;另外entity_embeddings文件应该放在哪个位置呢。万分感谢!!!
您好!感谢您的代码,请问wordnet在代码中是如何被使用的呢?
您好,我现在在使用您的程序训练,我目前成功训练了Restaurant和Laptop,Twitter的数据集我在论文原作者那找到了。但是代码中的entity_embeddings_distmult_200.txt和entity_embeddings_analogy_400.txt我现在不知道可以在哪找到,搜索了一下也没有看到,请问您能否分享一下这两个文件的下载链接或者告知我获取方式吗?非常感谢您的解答。
你好,感谢开源代码,我想问下数据集中的/0,/n,/p表示是什么意思?
在进行模型的Bert实现的训练过程中,我使用的参数和学习率与默认参数一致,但是训练结果很差,模型对训练集的拟合程度甚至无法达到50%,请问是参数的问题吗,如果是,请问Bert模型的训练参数是怎样设置的呢?
你好,请问14semeval_laptop_graph_analogy.pkl这种文件是怎么生成的?非常感谢
跑的时候遇到这个:RuntimeError: CUDA error: device-side assert triggered
报一大串这种:/pytorch/aten/src/ATen/native/cuda/Indexing.cu:658: indexSelectLargeIndex: block: [146,0,0], thread: [38,0,0] Assertion srcIndex < srcSelectDimSize
failed.
然后最后指向 squeeze_embedding 中的 x = x[x_sort_idx]
网上搜是说输入长度比Bert规定要大,请问应该怎么解决?