更新
让我们重复这个问题。
- 输入数据由标签集 = 字符串集(以及指向相关图像资源的指针)组成
- 字符串只是字符序列,没有其他可用的语义信息
- 但是,字符串的权重分为“主要”(较高权重)和“次要”(较低权重)
这意味着搜索必须完全依赖于集合(和字符串)的某种相似性度量。
此类措施的示例如下:
这篇 2010 年的论文:A weighted tag similarity measure based on a collaborative weight model 将其中几个(和其他)应用于标签问题,并展示了如何包含权重。这应该会有所帮助,恕我直言。
在 2013 年的这篇论文中可以看到另一个(更简单的)应用程序:Using of Jaccard Coefficient for Keywords Similarity。
关于问题中的例子
对于"Similar images",我们希望将"Microsoft, Excel, Bar Graph" 匹配到"Visio, Bar Graph"
由于一个标签 ("Bar Graph") 对两组标签都是通用的,因此会有一些相似之处。
而对于"Similar but different images",我们希望将"Microsoft, Excel, Bar Graph" 匹配到"Excel, Spreadsheet"。
又是一个共同的标签 ("Excel")。但是系统如何知道"Visio" 与集合"Microsoft, Excel, Bar Graph" 比"Spreadsheet" 更相似?
那将需要语义信息。我不知道如何解决这个问题。
旧零件
除了下面 2009 年论文中对各种指标的讨论之外,我发现对您选择的方法没有什么帮助(您限制了很多)。
但我想在此处保留我在此主题上的小搜索步骤,因为它将您的问题置于上下文中。
别人去哪里
研究界似乎朝着以下方向发展:
- 使用提供标签的用户的附加信息(folksonomies、社会标签)
- 利用语义元数据(本体,语义相似度)
- 利用视觉图像内容(基于内容的视觉信息检索)
Folksonomnies、社会标签
请参阅 2009 年的这篇论文:Evaluating Similarity Measures for Emergent Semantics of Social Tagging。
而不是通过比较图像的图形数据来定义相似度的传统方法
I = { (x, y, colour) }
在某种程度上(基于内容的图像检索,按图像内容查询,基于内容的视觉信息检索),这些作者按照您的意图使用标签中的信息(收获语义)。
他们的基本模型由用户为资源分配的标签组成,比较所谓的folksonomy的元组
F = { (user, resource, tag) }
可以通过不同的方法缩小到您的(资源、标签)元组的情况,以对用户进行聚合,从而产生不同的相似性度量。
语义相似度
有趣的是semantic similarity的使用,例如江康拉德,但是很遗憾,您的标签没有语义元数据(ontology 例如),这让您坚持使用单词的字符串表示的相似性。
同样,2008 年的这篇论文The Use of Ontologies for Improving Image Retrieval and Annotation 支持使用本体,但我认为它很好地讨论了各种方法。
Folksonomies,社会标签系统,依赖于
人民的智慧。一个有代表性的例子是 Flickr。
com。这种方法克服了如此多的耗时
手动注释,但标签使用的不一致可能难以
搜索整个数据集合。
结合基于内容的视觉信息检索
以上两篇论文都引用了这篇论文 Augmenting Navigation for Collaborative Tagging with Emergent Semantics 从 2006 年开始。
然而,单独使用标签来搜索和浏览数据库显然有
它的局限性。首先,人们在标记时会犯错误,例如拼写错误,
或使用错误的标签意外标记。二、没有解决办法
处理同音异义,即区分单词的不同含义。第三,
同义词或不同语言只能通过显式标记数据来处理
包含所有条款。
这些作者将社交标签与最初提到的基于内容的图像检索结合起来。
另一个链接:collaborative tagging。