草庐IT

accumulators

全部标签

论文阅读:《MuKEA: Multimodal Knowledge Extraction and Accumulation for Knowledge-based Visual Question Answering》

标题:基于知识的视觉问答的多模态知识提取与积累来源:CVPR2022https://arxiv.org/abs/2203.09138代码:https://github.com/AndersonStra/MuKEA一、问题提出一般的基于知识的视觉问答(KB-VQA)要求具有关联外部知识的能力,以实现开放式跨模态场景理解。现有的研究主要集中在从结构化知识图中获取相关知识,如ConceptNet和DBpedia,或从非结构化/半结构化知识中获取相关知识,如Wikipedia和VisualGenome。虽然这些知识库通过大规模的人工标注提供了高质量的知识,但一个局限性是,它们从纯文本的知识库中获取相关

论文阅读:《MuKEA: Multimodal Knowledge Extraction and Accumulation for Knowledge-based Visual Question Answering》

标题:基于知识的视觉问答的多模态知识提取与积累来源:CVPR2022https://arxiv.org/abs/2203.09138代码:https://github.com/AndersonStra/MuKEA一、问题提出一般的基于知识的视觉问答(KB-VQA)要求具有关联外部知识的能力,以实现开放式跨模态场景理解。现有的研究主要集中在从结构化知识图中获取相关知识,如ConceptNet和DBpedia,或从非结构化/半结构化知识中获取相关知识,如Wikipedia和VisualGenome。虽然这些知识库通过大规模的人工标注提供了高质量的知识,但一个局限性是,它们从纯文本的知识库中获取相关