Visual active search tool combines deep reinforcement learning, traditio<em></em>nal active search methods

在地理空间探索中,对感兴趣区域的有效识别的追求最近随着视觉主动搜索(VAS)而取得了飞跃。该建模框架使用视觉线索来指导探索,其潜在应用范围从野生动物偷猎探测到搜救任务,再到非法贩运活动的识别。

位于圣路易斯的华盛顿大学麦凯维工程学院(McKelvey School of Engineering)开发了一种新的VAS方法,将深度强化学习(计算机可以通过试错学习做出更好的决策)与传统的主动搜索(人类搜索者外出核实选定区域的情况)相结合。

开发新型VAS框架的团队包括计算机科学与工程教授Yevgeniy Vorobeychik和Nathan Jacobs,以及Vorobeychik实验室的博士生Anindya Sarkar。该团队在12月13日新奥尔良举行的神经信息处理系统会议上展示了他们的工作。

雅各布斯说:“VAS或多或少地改善了传统的主动搜索,这取决于搜索任务。”“如果一项任务相对容易,那么进步是有限的。但是,如果一个物体非常稀有——例如,我们想为野生动物保护的目的定位的濒危物种——那么VAS提供的改进是实质性的。值得注意的是,这不是为了更快地找到东西。而是在有限的资源,尤其是有限的人力资源的情况下,找到尽可能多的东西。”

该团队的VAS框架改进了以前的方法,将搜索分解为两个不同的模块。该框架首先使用预测模块根据地理空间图像数据和搜索历史生成感兴趣的区域。然后,搜索模块将得到的预测图作为输入并输出搜索计划。每个模块都可以在人类探索者实时返回物理搜索结果时进行更新。

Sarkar说:“与端到端的搜索策略不同,将其分解为两个模块使我们的适应性更强。”“在实际搜索过程中,我们可以用搜索结果更新我们的预测模块。然后,搜索模块可以学习预测模块的动态——它在搜索步骤中是如何变化的——并进行调整。在这个元学习策略中,搜索模块基本上是在学习如何搜索。它也是人类可解释的,所以如果模型不能正常工作,用户可以根据需要检查和调试它。”

该框架的主要优势来自于它持续整合了两个层次的部署:计算模型预测在哪里搜索,然后人类到外面的世界进行搜索。在探索大型地理空间区域所需的时间和其他资源方面,人为因素要昂贵得多,因此,为了实现最高效的搜索,调整和优化计算机生成的搜索计划是有意义的。

当寻找的目标与模型训练的目标有很大的不同时,计算机模型的适应性就显得尤为重要。实验结果表明,Sarkar, Vorobeychik和Jacobs提出的VAS框架在各种视觉主动搜索任务上比现有方法有显著改善。

研究结果发表在arXiv预印本服务器上。

更多信息:Anindya Sarkar等人,视觉主动搜索的部分监督强化学习框架,arXiv(2024)。DOI: 10.48550/ arXiv .2310.09689

由圣路易斯华盛顿大学提供
引用视觉主动搜索工具结合了深度强化学习,传统 nal active search methods (2024, December 14)检索自https://techxplore.com/news/2024-12-visual-tool-combines-deep-traditional.html本文档2024年12月14日 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。