您当前的位置:首页 > Manus

触觉压力数据集

时间:2025-04-03 10:59:31  来源:互联网  作者:
selectdataset.comhttps://www.selectdataset.com/dataset/6921c882a45848bd78alanz-mit/FoundationTactile|触觉感知数据集|机器学习数据集2024年6月21日 · FoTa数据集是一个用于触觉表示学习的大型数据集,包含了来自13个基于摄像头的触觉传感器和11个任务的超过300万张触觉图像。 数据集以WebDataset格式发布,便于使 更多内容请查看https://www.selectdataset.com/dataset/6921c882a45848bd78e4b061f96c43c7

selectdataset.comhttps://www.selectdataset.com/dataset/6ce2a550dcaf6387e4Touch100k Touch100k是由北京交通大学等机构创建的大型多模态数据集,包含100,147条数据,涵盖触觉、多粒度语言和视觉模态。数据集通过收集和整理来自公开触觉数据集 更多内容请查看https://www.selectdataset.com/dataset/6ce2a550dcaf6387e4ff3066a9277570

UniTouch:开创性的多模态触觉模型引领零样本学 2024年8月9日 · 实验使用了四个由不同基于视觉的触觉传感器收集的visuotactile数据集(表1),包括真实世界数据集Touch and Go、机器人数据集The Feeling of Success、YCB-Slide数据集,以及多模态数据集ObjectFolder 2.0。更多内容请查看https://blog.csdn.net/weixin_44292902/article/details/140994074

AnyTouch:跨多个视觉触觉传感器学习统一的静态动态表征2025年3月27日 · 首先为每个传感器选择代表性数据集,然后使用 GPT-4o 生成或扩展这些数据集中的文本模态。通过这种方法,为四个数据集中的 140 万个样本创建新的文本对。基于这些广 更多内容请查看https://zhuanlan.zhihu.com/p/30549363823

https://blog.csdn.net/dengyue470288/article/details/机器人抓取数据集概览-2019年10月3日 · 合成数据集是指通过计算机模拟生成的数据集,可以用于训练机器学习模型。 与真实 数据集 相比,合 人形机器人灵巧手 触觉 感知报告:场景落地关键(附下载)更多内容请查看https://blog.csdn.net/dengyue470288/article/details/102008322

selectdataset.comhttps://www.selectdataset.com/dataset/0d3ee924c5b51504bdTactile Functasets|触觉传感数据集|机器人操作数据集2024年9月23日 · Tactile Functasets是由密歇根大学开发的一个用于触觉传感器数据的高效存储和处理的数据集。 该数据集通过神经隐式函数来重建触觉传感器的高维数据,生成紧凑的表示形 更多内容请查看https://www.selectdataset.com/dataset/0d3ee924c5b51504bd62bb3977519236

无敌OS,CentOS定制,开源OS,Rockylinux,Almalinux,Anolis,OpenCloudOS,Ubuntu,Debian 更多内容请查看http://wdos.cn

超神经TacQuad 多模态多传感器触觉数据集 | 数据集 | HyperAI超神经TacQuad 是一个对齐的多模态多传感器触觉数据集,收集自 4 种类型的视觉触觉传感器(GelSight Mini 、 DIGIT 、 DuraGel 和 Tac3D)。 该数据集由中国人民大学、武汉科技大学和北京邮电 更多内容请查看https://hyper.ai/cn/datasets/38340

touch信号数据集/论文合集(更新中) 通过深度学习和多模态数据,研究如何利用触觉和视觉信息进行物体识别、重量估算和地形理解,推动机器人感知和人机交互的发展。 3. 《What am I touching? Learning to 更多内容请查看https://blog.csdn.net/qq_42244418/article/details/124545661

推荐资讯
栏目更新
栏目热门