Bendi新闻
>
AI看图猜位置,准确率超90%!斯坦福最新PIGEON模型:40%预测误差不到25公里

AI看图猜位置,准确率超90%!斯坦福最新PIGEON模型:40%预测误差不到25公里

10月前



  新智元报道  

编辑:LRS
【新智元导读】在社交媒体上发照片要谨慎了,AI工具一眼就能识破你的位置!


随手在网络上发布的一张照片,能暴露多少信息?


外国的一位博主@rainbolt就长年接受这种「照片游戏」的挑战,网友提供照片,他来猜测照片的具体拍摄地,有些照片甚至还能猜到具体的航班细节。



是不是细思极恐?


但「照片挑战」也同样抚慰了很多人心中的遗憾,比如拿着一张父亲年轻时候拍的照片,却不知道在哪里,借助rainbolt和广大网友的力量,最终完成了心愿。


我花费了6个月和300多个小时试图找到一位粉丝父亲生前照片的位置,但没有结果,我放弃了;在发布到youtube上的一小时后,我们找到了。


光是想想,就能知道「从照片猜位置」这个过程的艰辛和难度,其中涉及到大量的地理、历史专业知识,从路标、交通方向、树木种类、基础设施等蛛丝马迹中不断找到真相。


在计算机领域,这一任务也被称为图像地理定位(image geolocalization),目前大多数方法仍然是基于手工特征和检索的方法,没有使用Transformer等深度学习架构。


最近斯坦福大学的研究团队合作开发了一款AI工具PIGEON,将语义地理单元创建(semantic geocell creation)与标签平滑(label smoothing)相结合,对街景图像进行CLIP视觉转换器的预训练,并使用ProtoNets在候选地理单元集上细化位置预测。


论文链接:https://arxiv.org/abs/2307.05845


PIGEON在「照片猜国家」的子任务上实现了91.96%的正确率,40.36%的猜测在距离目标25公里以内,这也是过去五年来第一篇没有军事背景资助的、最先进的图像地理定位相关的论文。


GeoGuessr是一个从街景图像中猜测地理位置的游戏,全球拥有5000万玩家,前面提到的rainbolt就是该游戏的忠实粉丝,也是公认的最强玩家之一。


而PIGEON模型在GeoGuessr中对人类玩家呈碾压优势,在六场比赛中连续击败rainbolt,全球排名前0.01%.


PIGEON的进步还启发了开发人员创建另一个模型PIGEOTTO,使用Flickr和维基百科的400万张图像进行训练,输入任意图像而非街景全景图,就能定位出图像的位置,功能更加强大。


在此类任务的测试中,PIGEOTTO的性能最佳,将中位偏差降低了20%-50%,在城市粒度上的预测超过了之前的SOTA高达7.7个百分点,在国家粒度上超过了38.8个百分点。


2016 MediaEval数据集的样本图像用于训练PIGEOTTO


从技术上来说,该工作的最重要的结果之一就是证明了预训练的CLIP模型StreetCLIP域泛化及其对分布变化的鲁棒性,能够以零样本的方式将StreetCLIP应用于分布外基准数据集IM2GPS和IM2GPS3k,并取得了最先进的结果,击败了在400多万张分布内(in-distributions)图像上微调的模型。


并且,实验结果也证明了对比预训练是一种有效的图像地理定位元学习技术,在StreetCLIP预训练中没见过的国家预测上,准确率比CLIP提高了10个百分点以上。


由于图像地理定位数据集在地理分布方面差异很大,结果也证明了将StreetCLIP应用于任何地理定位和相关问题的有效性。


由于这项技术目前仍然可以用于不良目的,所以开发人员决定暂时不公布模型权重。


实验数据集


虽然大多数图像地理定位方法都依赖于公开的数据集,但目前还没有公开的、全地球范围下的街景(Street View)数据集。


所以研究人员决定在原始数据集上创建,主动联系了Geoguessr的首席技术官Erland Ranvinge,获得了该游戏中竞争对决模式下使用的100万个地点的数据集,再随机采样10%数据点,对每个数据点下载4张图片,最终获得40万张图片。



方法架构


1. Geocell Creation(地理单元生成)


先前的研究尝试过直接对输入图像来预测经纬度,但结果证明无法取得sota性能,所以目前的方法大多依赖于生成geocells,把坐标回归问题离散化,再转成分类问题,所以geocell的设计至关重要。


这篇论文的一个创新点就是语义地理单元(semantic geocells),可以根据训练数据集样本的地理分布自动适应,因为图像中的视觉特征通常与国家(道路标记)、地区(基础设施质量)或城市(街道标志)有关;并且国家或行政边界往往遵循自然边界,如河流或山脉的流动,这反过来又影响植被类型,土壤颜色等自然特征。


研究人员设计的地理单元有三个级别:国家、admin 1、admin 2,从最细粒度级别(admin 2)开始,算法会逐步合并相邻的admin 2级别多边形,其中每个geocell包含至少30个训练样本。



2. 标签平滑(label smoothing)


语义地理单元创建过程来离散化图像地理定位问题,可以在粒度和预测准确性之间寻求平衡:地理单元的粒度越大,预测就越精确,但由于基数(cardinality)更高,分类问题就会变得更加困难。


为了解决这个问题,研究人员设计了一个损失函数,基于预测的、到正确的地理单元之间的距离进行惩罚,可以更高效地对模型进行训练。



使用两点之间Haversine距离的一个优势是基于地球的球面几何,能够精确估计两点之间的距离。


3. Vision Transformer(CLIP)


研究人员使用预训练的视觉Transformer,架构为ViT-L/14,然后对预测header进行了微调,并且对最后一个视觉Transformer层进行解冻。


对于具有多个图像输入的模型版本,将四个图像的embedding进行平均;在实验中,平均embedding比通过多头注意力或额外的Transformer层组合embedding表现得更好。


基于先验知识和专业GeoGuessr玩家通常观察到的策略,图像定位任务有各种相关特征,例如,植被、道路标记、路标和建筑。


多模态模型对图像有更深语义理解的embedding,使其能够学习这些特征,实验中也证明了,CLIP视觉Transformer比类似的ImageNet视觉Transformer有明显的进步,并且使用注意力map能够以可解释的方式展示模型学习到的策略。


4. StreetCLIP对比预训练


受CLIP对比预训练的启发,研究人员设计了一个对比预训练任务,在学习geocell预测头之前,也可以使用它来微调CLIP基础模型。


使用地理、人口统计和地质辅助数据来增强街景数据集,使用基于规则的系统为每个图像创建随机描述,例如:


地点:南非东开普省地区的街景照片

Location: A Street View photo in the region of Eastern Cape in South Africa.


气候:该地区为温带海洋性气候。

Climate: This location has a temperate oceanic climate.


罗盘方向:这张照片是朝北的。

Compass Direction: This photo is facing north.


季节:这张照片是在12月拍摄的。

Season: This photo was taken in December.


交通:在这个位置,人们在道路的左侧行驶。

Traffic: In this location, people drive on the left side of the road.


相当于是一个隐式的多任务,可以确保模型保持丰富的数据表示,同时调整街景图像的分布并学习与地理位置相关的功能。


5. 多任务学习


研究人员还尝试通过为辅助气候变量、人口密度、海拔和一年中的月份(季节)创建特定于任务的预测header来明确多任务设置。


6. ProtoNet Refinement


为了进一步完善模型在geocell内的猜测并提高街道和城市级别的性能,研究人员使用ProtoNets执行geocell内的细化,将每个单元的单元内细化作为一个单独的few shot分类任务。


再次使用OPTICS聚类算法,其中minsample参数为3,xi参数为0.15来聚类geocell内的所有点,从而提出在cell内分类设置中学习的类别。


每个聚类由至少三个训练样本组成,形成一个原型,其表征通过对原型中所有图像的embedding进行平均来计算。


大洛杉矶都市区的可视化ProtoNet集群


为了计算原型embedding,使用与geocell预测任务相同的模型,但删除预测header并冻结所有权重。


在推理过程中,首先计算并平均新位置的嵌入,采用平均图像嵌入与给定geocell内的所有原型之间的欧几里得距离,选择具有最小欧几里得图像嵌入距离的原型位置作为最终的地理定位预测。


实验结果


性能最好的PIGEON模型实现了91.96%的国家准确率(基于政治边界),40.36%的猜测都在距离正确位置25公里以内,中位公里误差为44.35公里,GeoGuessr平均得分为4525分。




在增强数据集上的多任务模型的结果显示,模型可以从街景图像中推断出地理、人口和地质特征。



参考资料:
https://the-decoder.com/this-ai-knows-where-you-took-which-photo
https://www.researchgate.net/publication/372313510_PIGEON_Predicting_Image_Geolocations



微信扫码关注该文公众号作者

来源:新智元

相关新闻

AI看图猜位置,准确率超90%!高于临床测试3倍准确率!剑桥大学开发AI模型,提前6年预测阿尔茨海默症斯坦福15张图揭示最新AI 动态:开源风评又“被害”,谷歌、OpenAI争当基础模型“劳模”AI反诈!Deepfake音视频检测技术亮相CES,准确率超90%英国剑桥大学开发AI工具,老年痴呆症预测准确率比标准高三倍!“指标平台”掀起数智风暴:AI 对话已达 95% 准确率、100% 可解释!AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%日均tokens使用量超5000亿,AI生图玩法猛猛上新:豆包大模型为什么越来越「香」了?套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型刘强东AI数字人首场直播:不到1小时观看量超2000万,整场成交额超5000万!BB鸭 | 苹果推出AI大模型;盒马大润发否认被出售;25年新能源汽车市占率或超50%;Apple ID将成为历史小心!最新AI看一眼照片就定位你在哪里,精确到经纬度Google 发布重磅 AI 模型!预测地球所有生物分子,将大大加速癌症等疾病治疗研究马斯克最新预测:AI或在2030年超越人类智力,未来还可能“终结”人类实测最新AI语音模型:让特朗普、丁真说绕口令堪称以假乱真,但断句整得稀碎数学领域的“AlphaGo”:DeepMind最新AI模型,打破奥数天花板大模型从业图鉴:AI届大冰,AI届海王…2024霍普杯:可以用AI出图!谷歌放大招,AI搜索引擎来了,发布最强AI模型!发布会现场:总共提了120次AI、视频模型登场......当AI开始看图定位,你的位置不再是秘密? |【经纬低调分享】超越Sora极限,120秒超长AI视频模型诞生!打破奥数天花板!DeepMind最新AI数学大模型,能以人类金牌水平解决几何题吴恩达最新 Ark Invest 洞察:AI 基础模型竞争激烈,训练成本每年下降75%,推理下降86%,大厂优势难长期保证斯坦福AI团队抄袭中国大模型,最新进展来了
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。