| 书[0名0]: | ROS [1机1] 器人开发实践|7991375 |
| 图书定价: | 99元 |
| 图书作者: | 胡春旭 |
| 出版社: | [1机1] 械工业出版社 |
| 出版日期: | 2018/5/1 0:00:00 |
| ISBN号: | 9787111598237 |
| 开本: | 16开 |
| 页数: | 0 |
| 版次: | 1-1 |
| 目录 |
推荐序一 推荐序二 推荐序三 前言 [0第0]1章 初识ROS 1 1.1 ROS是什么 1 1.1.1 ROS的起源 1 1.1.2 ROS的设计目标 2 1.1.3 ROS的特点 3 1.2 如何安装ROS 4 1.2.1 操作系统与ROS版本的选择 4 1.2.2 配置系统软件源 6 1.2.3 添加ROS软件源 6 1.2.4 添加密钥 7 1.2.5 安装ROS 7 1.2.6 初始化rosdep 8 1.2.7 设置环境变量 8 1.2.8 完成安装 9 1.3 本书源码下载 9 1.4 本章小结 10 [0第0]2章 ROS架构 11 2.1 ROS架构设计 11 2.2 计算图 12 2.2.1 节点 12 2.2.2 消息 13 2.2.3 话题 13 2.2.4 服务 13 2.2.5 节点管理器 14 2.3 文件系统 14 2.3.1 功能包 14 2.3.2 元功能包 16 2.4 开源社区 17 2.5 ROS的通信 [1机1] 制 17 2.5.1 话题通信 [1机1] 制 18 2.5.2 服务通信 [1机1] 制 19 2.5.3 参数管理 [1机1] 制 20 2.6 话题与服务的区别 20 2.7 本章小结 21 [0第0]3章 ROS基础 22 3.1 个ROS例程——小乌龟仿真 23 3.1.1 turtlesim功能包 23 3.1.2 控制乌龟运动 24 3.2 创建工作空间和功能包 25 3.2.1 什么是工作空间 25 3.2.2 创建工作空间 26 3.2.3 创建功能包 27 3.3 工作空间的覆盖 28 3.3.1 ROS中工作空间的覆盖 28 3.3.2 工作空间覆盖示例 28 3.4 搭建Eclipse开发环境 30 3.4.1 安装Eclipse 30 3.4.2 创建Eclipse工程文件 30 3.4.3 将工程导入Eclipse 31 3.4.4 设置头文件路径 31 3.4.5 运行/调试程序 32 3.5 RoboWare简介 35 3.5.1 RoboWare的特点 35 3.5.2 RoboWare的安装与使用 36 3.6 话题中的Publisher与Subscriber 37 3.6.1 乌龟例程中的Publisher与Subscriber 37 3.6.2 如何创建Publisher 37 3.6.3 如何创建Subscriber 40 3.6.4 编译功能包 41 3.6.5 运行Publisher与Subscriber 42 3.6.6 自定义话题消息 44 3.7 服务中的Server和Client 46 3.7.1 乌龟例程中的服务 46 3.7.2 如何自定义服务数据 47 3.7.3 如何创建Server 48 3.7.4 如何创建Client 49 3.7.5 编译功能包 51 3.7.6 运行Server和Client 51 3.8 ROS中的命[0名0]空间 52 3.8.1 有效的命[0名0] 52 3.8.2 命[0名0]解析 53 3.8.3 命[0名0]重映射 54 3.9 分布式多 [1机1] 通信 54 3.9.1 设置IP地址 55 3.9.2 设置ROS_MASTER_URI 56 3.9.3 多 [1机1] 通信测试 56 3.10 本章小结 57 [0第0]4章 ROS中的常用组件 58 4.1 launch启动文件 58 4.1.1 基本元素 58 4.1.2 参数设置 60 4.1.3 重映射 [1机1] 制 61 4.1.4 嵌套复用 61 4.2 TF坐标变换 62 4.2.1 TF功能包 62 4.2.2 TF工具 63 4.2.3 乌龟例程中的TF 65 4.2.4 创建TF广播器 67 4.2.5 创建TF监听器 68 4.2.6 实现乌龟跟随运动 70 4.3 Qt工具箱 70 4.3.1 日志输出工具(rqt_console) 71 4.3.2 计算图可视化工具(rqt_graph) 71 4.3.3 数据绘图工具(rqt_plot) 72 4.3.4 参数动态配置工具(rqt_reconfigure) 73 4.4 rviz三维可视化平台 73 4.4.1 安装并运行rviz 74 4.4.2 数据可视化 75 4.4.3 插件扩展 [1机1] 制 76 4.5 Gazebo仿真环境 78 4.5.1 Gazebo的特点 78 4.5.2 安装并运行Gazebo 78 4.5.3 构建仿真环境 81 4.6 rosbag数据记录与回放 82 4.6.1 记录数据 82 4.6.2 回放数据 83 4.7 本章小结 84 [0第0]5章 [1机1] 器人平台搭建 85 5.1 [1机1] 器人的定义 85 5.2 [1机1] 器人的组成 86 5.2.1 执行 [1机1] 构 87 5.2.2 驱动系统 87 5.2.3 传感系统 87 5.2.4 控制系统 87 5.3 [1机1] 器人系统搭建 88 5.3.1 MRobot 88 5.3.2 执行 [1机1] 构的实现 88 5.3.3 驱动系统的实现 89 5.3.4 内部传感系统的实现 90 5.4 基于Raspberry Pi的控制系统实现 90 5.4.1 硬件平台Raspberry Pi 91 5.4.2 安装Ubuntu 16.04 91 5.4.3 安装ROS 93 5.4.4 控制系统与MRobot通信 94 5.4.5 PC端控制MRobot 97 5.5 为 [1机1] 器人装配摄像头 99 5.5.1 usb_cam功能包 99 5.5.2 PC端驱动摄像头 100 5.5.3 Raspberry Pi驱动摄像头 102 5.6 为 [1机1] 器人装配Kinect 104 5.6.1 freenect_camera功能包 104 5.6.2 PC端驱动Kinect 106 5.6.3 Raspberry Pi驱动Kinect 109 5.6.4 Kinect电源改造 109 5.7 为 [1机1] 器人装配激光雷达 110 5.7.1 rplidar功能包 110 5.7.2 PC端驱动rplidar 111 5.7.3 Raspberry Pi驱动rplidar 113 5.8 本章小结 113 [0第0]6章 [1机1] 器人建模与仿真 114 6.1 统一 [1机1] 器人描述格式——URDF 114 6.1.1 标签 114 6.1.2 标签 115 6.1.3 标签 116 6.1.4 标签 116 6.2 创建 [1机1] 器人URDF模型 116 6.2.1 创建 [1机1] 器人描述功能包 116 6.2.2 创建URDF模型 117 6.2.3 URDF模型解析 120 6.2.4 在rviz中显示模型 122 6.3 改进URDF模型 124 6.3.1 添加物理和碰撞属性 124 6.3.2 使用xacro[0优0]化URDF 125 6.3.3 xacro文件引用 127 6.3.4 显示[0优0]化后的模型 127 6.4 添加传感器模型 128 6.4.1 添加摄像头 128 6.4.2 添加Kinect 130 6.4.3 添加激光雷达 132 6.5 基于ArbotiX和rviz的仿真器 133 6.5.1 安装ArbotiX 133 6.5.2 配置ArbotiX控制器 133 6.5.3 运行仿真环境 135 6.6 ros_control 136 6.6.1 ros_control框架 137 6.6.2 控制器 139 6.6.3 硬件接口 139 6.6.4 传动系统 140 6.6.5 关节约束 140 6.6.6 控制器管理器 141 6.7 Gazebo仿真 142 6.7.1 [1机1] 器人模型添加Gazebo属性 142 6.7.2 在Gazebo中显示 [1机1] 器人模型 145 6.7.3 控制 [1机1] 器人在Gazebo中运动 147 6.7.4 摄像头仿真 147 6.7.5 Kinect仿真 150 6.7.6 激光雷达仿真 153 6.8 本章小结 155 [0第0]7章 [1机1] 器视觉 156 7.1 ROS中的图像数据 156 7.1.1 二维图像数据 156 7.1.2 三维点云数据 158 7.2 摄像头标定 159 7.2.1 camera_calibration功能包 159 7.2.2 启动标定程序 159 7.2.3 标定摄像头 160 7.2.4 标定Kinect 162 7.2.5 加载标定参数的配置文件 162 7.3 OpenCV库 164 7.3.1 安装OpenCV 164 7.3.2 在ROS中使用OpenCV 164 7.4 人脸识别 166 7.4.1 应用效果 167 7.4.2 源码实现 168 7.5 物体跟踪 170 7.5.1 应用效果 170 7.5.2 源码实现 171 7.6 二维码识别 173 7.6.1 ar_track_alvar功能包 173 7.6.2 创建二维码 174 7.6.3 摄像头识别二维码 175 7.6.4 Kinect识别二维码 178 7.7 物体识别 179 7.7.1 ORK功能包 179 7.7.2 建立物体模型库 181 7.7.3 模型训练 183 7.7.4 三维物体识别 184 7.8 本章小结 185 [0第0]8章 [1机1] 器语音 186 8.1 让 [1机1] 器人听懂你说的话 187 8.1.1 pocketsphinx功能包 187 8.1.2 语音识别测试 188 8.1.3 创建语音库 190 8.1.4 创建launch文件 192 8.1.5 语音指令识别 192 8.1.6 中文语音识别 192 8.2 通过语音控制 [1机1] 器人 193 8.2.1 编写语音控制节点 193 8.2.2 语音控制小乌龟运动 194 8.3 让 [1机1] 器人说话 195 8.3.1 sound_play功能包 195 8.3.2 语音播放测试 195 8.4 人工智能标记语言 196 8.4.1 AIML中的标签 196 8.4.2 Python中的AIML解析器 197 8.5 与 [1机1] 器人对话 198 8.5.1 语音识别 199 8.5.2 智能匹配应答 201 8.5.3 文本转语音 202 8.5.4 智能对话 203 8.6 让 [1机1] 器人听懂中文 204 8.6.1 下载科[0大0]讯飞SDK 204 8.6.2 测试SDK 206 8.6.3 语音听写 207 8.6.4 语音合成 209 8.6.5 智能语音助手 211 8.7 本章小结 213 [0第0]9章 [1机1] 器人SLAM与自主导航 214 9.1 理论基础 214 9.2 准备工作 216 9.2.1 传感器信息 217 9.2.2 仿真平台 219 9.2.3 真实 [1机1] 器人 222 9.3 gmapping 224 9.3.1 gmapping功能包 224 9.3.2 gmapping节点的配置与运行 227 9.3.3 在Gazebo中仿真SLAM 228 9.3.4 真实 [1机1] 器人SLAM 231 9.4 hector-slam 234 9.4.1 hector-slam功能包 234 9.4.2 hector_mapping节点的配置与运行 236 9.4.3 在Gazebo中仿真SLAM 237 9.4.4 真实 [1机1] 器人SLAM 238 9.5 cartographer 240 9.5.1 cartographer功能包 240 9.5.2 官方demo测试 241 9.5.3 cartographer节点的配置与运行 244 9.5.4 在Gazebo中仿真SLAM 246 9.5.5 真实 [1机1] 器人SLAM 247 9.6 rgbdslam 249 9.6.1 rgbdslam功能包 249 9.6.2 使用数据包实现SLAM 250 9.6.3 使用Kinect实现SLAM 252 9.7 ORB_SLAM 253 9.7.1 ORB_SLAM功能包 253 9.7.2 使用数据包实现单目SLAM 254 9.7.3 使用摄像头实现单目SLAM 256 9.8 导航功能包 258 9.8.1 导航框架 258 9.8.2 move_base功能包 258 9.8.3 amcl功能包 260 9.8.4 代价地图的配置 263 9.8.5 本地规划器配置 266 9.9 在rviz中仿真 [1机1] 器人导航 267 9.9.1 创建launch文件 267 9.9.2 开始导航 268 9.9.3 自动导航 269 9.10 在Gazebo中仿真 [1机1] 器人导航 277 9.10.1 创建launch文件 277 9.10.2 运行效果 278 9.10.3 实时避障 279 9.11 真实 [1机1] 器人导航 280 9.11.1 创建launch文件 280 9.11.2 开始导航 282 9.12 自主探索SLAM 282 9.12.1 创建launch文件 282 9.12.2 通过rviz设置探索 目标 283 9.12.3 实现自主探索SLAM 284 9.13 本章小结 286 [0第0]10章 MoveIt! [1机1] 械臂控制 287 10.1 MoveIt!系统架构 288 10.1.1 运动组(move_group) 288 10.1.2 运动规划器(motion_planner) 290 10.1.3 规划场景 291 10.1.4 运动[0学0]求解器 291 10.1.5 碰撞检测 291 10.2 如何使用MoveIt! 292 10.3 创建 [1机1] 械臂模型 292 10.3.1 声明模型中的宏 292 10.3.2 创建六轴 [1机1] 械臂模型 294 10.3.3 加入Gazebo属性 299 10.3.4 显示 [1机1] 器人模型 300 10.4 使用Setup Assistant配置 [1机1] 械臂 302 10.4.1 加载 [1机1] 器人URDF模型 303 10.4.2 配置自碰撞矩阵 304 10.4.3 配置虚拟关节 304 10.4.4 创建规划组 304 10.4.5 定义 [1机1] 器人位姿 307 10.4.6 配置终端夹爪 308 10.4.7 配置无用关节 309 10.4.8 设置作者信息 309 10.4.9 生成配置文件 309 10.5 启动MoveIt! 310 10.5.1 拖动规划 311 10.5.2 随 [1机1] 目标规划 311 10.5.3 初始位姿更新 313 10.5.4 碰撞检测 314 10.6 配置文件 315 10.6.1 SRDF文件 315 10.6.2 fake_controllers.yaml 316 10.6.3 joint_limits.yaml 317 10.6.4 kinematics.yaml 317 10.6.5 ompl_planning.yaml 318 10.7 添加ArbotiX关节控制器 318 10.7.1 添加配置文件 318 10.7.2 运行ArbotiX节点 318 10.7.3 测试例程 319 10.7.4 运行效果 321 10.8 配置MoveIt!关节控制器 322 10.8.1 添加配置文件 323 10.8.2 启动插件 324 10.9 MoveIt!编程[0学0]习 324 10.9.1 关节空间规划 324 10.9.2 工作空间规划 328 10.9.3 笛卡儿运动规划 333 10.9.4 避障规划 338 10.10 pick and place示例 345 10.10.1 应用效果 345 10.10.2 创建抓取的目标物体 346 10.10.3 设置目标物体的放置位置 346 10.10.4 生成抓取姿态 346 10.10.5 pick 348 10.10.6 place 348 10.11 Gazebo中的 [1机1] 械臂仿真 349 10.11.1 创建配置文件 350 10.11.2 创建launch文件 350 10.11.3 开始仿真 351 10.12 使用MoveIt!控制Gazebo中的 [1机1] 械臂 353 10.12.1 关节轨迹控制器 354 10.12.2 MoveIt!控制器 355 10.12.3 关节状态控制器 356 10.12.4 运行效果 357 10.13 ROS-I 358 10.13.1 ROS-I的目标 359 10.13.2 ROS-I的安装 359 10.13.3 ROS-I的架构 360 10.14 本章小结 362 [0第0]11章 ROS与 [1机1] 器[0学0]习 363 11.1 AlphaGo的[0大0]脑——Tensor-Flow 364 11.2 TensorFlow基础 364 11.2.1 安装TensorFlow 364 11.2.2 核心概念 366 11.2.3 个TensorFlow程序 367 11.3 线性回归 369 11.3.1 理论基础 369 11.3.2 创建数据集 371 11.3.3 使用TensorFlow解决线性回归问题 372 11.4 手写数字识别 374 11.4.1 理论基础 374 11.4.2 TensorFlow中的MNIST例程 377 11.4.3 基于ROS实现MNIST 381 11.5 物体识别 384 11.5.1 安装TensorFlow Object Detection API 385 11.5.2 基于ROS实现动态物体识别 388 11.6 本章小结 390 [0第0]12章 ROS进阶功能 391 12.1 action 391 12.1.1 什么是action 391 12.1.2 action的工作 [1机1] 制 392 12.1.3 action的定义 392 12.1.4 实现action通信 393 12.2 plugin 396 12.2.1 工作原理 396 12.2.2 如何实现一个插件 396 12.2.3 创建基类 397 12.2.4 创建plugin类 398 12.2.5 注册插件 399 12.2.6 编译插件的动态链接库 399 12.2.7 将插件加入ROS 399 12.2.8 调用插件 400 12.3 rviz plugin 401 12.3.1 速度控制插件 402 12.3.2 创建功能包 402 12.3.3 代码实现 402 12.3.4 编译插件 407 12.3.5 运行插件 408 12.4 动态配置参数 409 12.4.1 创建配置文件 410 12.4.2 创建服务器节点 412 12.4.3 参数动态配置 413 12.5 SMACH 414 12.5.1 什么是SMACH 415 12.5.2 状态 [1机1] “跑”起来 415 12.5.3 状态 [1机1] 实现剖析 416 12.5.4 状态间的数据传递 419 12.5.5 状态 [1机1] 嵌套 421 12.5.6 多状态并行 422 12.6 ROS-MATLAB 423 12.6.1 ROS-MATLAB是什么 423 12.6.2 ROS-MATLAB可以做什么 424 12.6.3 连接MATLAB和ROS 425 12.6.4 MATLAB可视化编程 428 12.6.5 创建可视化界面 429 12.6.6 编辑控件的回调函数 431 12.6.7 运行效果 434 12.7 Web GUI 435 12.7.1 ROS中的Web功能包 435 12.7.2 创建Web应用 436 12.7.3 使用Web浏览器控制 [1机1] 器人 439 12.8 本章小结 440 [0第0]13章 ROS [1机1] 器人实例 441 13.1 PR2 441 13.1.1 PR2功能包 442 13.1.2 Gazebo中的PR2 443 13.1.3 使用PR2实现SLAM 446 13.1.4 PR2 [1机1] 械臂的使用 448 13.2 TurtleBot 450 13.2.1 TurtleBot功能包 451 13.2.2 Gazebo中的TurtleBot 451 13.2.3 使用TurtleBot实现导航功能 453 13.2.4 尝试TurtleBot 3 456 13.3 Universal Robots 457 13.3.1 Universal Robots功能包 458 13.3.2 Gazebo中的UR [1机1] 器人 459 13.3.3 使用MoveIt!控制UR [1机1] 器人 460 13.4 catvehicle 462 13.4.1 构建无人驾驶仿真系统 463 13.4.2 运行无人驾驶仿真器 465 13.4.3 控制无人驾驶汽车 466 13.4.4 实现无人驾驶汽车的SLAM功能 467 13.5 HRMRP 469 13.5.1 总体架构设计 469 13.5.2 SLAM与导航 471 13.5.3 多 [1机1] 器人扩展 472 13.6 Kungfu Arm 474 13.6.1 总体架构设计 474 13.6.2 具体层次功能 475 13.6.3 功夫茶应用展示 478 13.7 本章小结 478 [0第0]14章 ROS 2 479 14.1 ROS 1存在的问题 480 14.2 什么是ROS 2 481 14.2.1 ROS 2的设计目标 481 14.2.2 ROS 2的系统架构 482 14.2.3 ROS 2的关键中间件——DDS 483 14.2.4 ROS 2的通信模型 483 14.2.5 ROS 2的编译系统 485 14.3 在Ubuntu上安装ROS 2 487 14.3.1 安装步骤 487 14.3.2 运行talker和listener例程 488 14.4 在Windows上安装ROS 2 489 14.4.1 安装Chocolatey 489 14.4.2 安装Python 490 14.4.3 安装OpenSSL 490 14.4.4 安装Visual StudioCommunity 2015 491 14.4.5 配置DDS 491 14.4.6 安装OpenCV 492 14.4.7 安装依赖包 492 14.4.8 下载并配置ROS 2 492 14.4.9 运行talker和listener例程 493 14.5 ROS 2中的话题通信 494 14.5.1 创建工作目录和功能包 494 14.5.2 创建talker 495 14.5.3 创建listener 497 14.5.4 修改CMakeLists.txt 497 14.5.5 编译并运行节点 498 14.6 自定义话题和服务 499 14.6.1 自定义话题 499 14.6.2 自定义服务 499 14.6.3 修改CMakeLists.txt和package.xml 499 14.6.4 编译生成头文件 499 14.7 ROS 2中的服务通信 500 14.7.1 创建Server 500 14.7.2 创建Client 501 14.7.3 修改CMakeLists.txt 503 14.7.4 编译并运行节点 503 14.8 ROS 2与ROS 1的集成 504 14.8.1 ros1_bridge功能包 504 14.8.2 话题通信 504 14.8.3 服务通信 504 14.9 本章小结 505 |
这本书最大的亮点在于它对“解决问题”的强调。作者并没有把重点放在枯燥的理论知识点上,而是通过大量的实际问题和场景,来驱动知识的学习和掌握。书中提出的每一个挑战,都紧密贴合了机器人开发中的实际痛点,而作者提供的解决方案,则充满了智慧和创造力。我特别喜欢书中关于机器人导航和路径规划的章节,作者通过一个又一个的实际案例,展示了如何从零开始构建一个能够自主导航的机器人系统。从传感器数据处理,到地图构建,再到路径规划和运动控制,每一个环节都被分解得非常清晰,并且提供了可操作的代码和详细的解释。这种“以问题为导向”的学习方法,让我不仅学到了技术,更学会了如何运用技术去解决实际问题,这对于我今后的机器人开发工作非常有指导意义。
评分作为一名对机器人领域充满好奇的学习者,我发现这本书提供了一个极佳的入门和进阶平台。它将复杂的机器人系统分解成了一系列易于理解的模块,并逐步引导读者进行实践。书中对ROS核心组件的讲解非常到位,从通信机制到服务、动作等,都给出了清晰的解释和示例。更重要的是,作者并没有止步于ROS的基础知识,而是深入探讨了如何利用ROS进行更复杂的机器人应用开发,例如多机器人协同、自主避障等。我印象最深刻的是书中关于机器人仿真环境的介绍,它让我能够在一个安全可控的环境中进行大量的实验和测试,这极大地提高了我的学习效率,并避免了在真实硬件上操作可能带来的风险。这本书就像一位耐心的向导,带领我在这充满魅力的机器人世界里,一步步探索,不断前行。
评分我必须说,这本书的设计感也同样令人印象深刻。从封面到内页的排版,都透露着一种专业和用心。清晰的章节划分,合理的段落布局,以及恰到好处的留白,都让阅读过程变得更加愉悦和高效。我尤其喜欢书中大量的代码示例,它们不仅得到了详尽的解释,还配有相应的图示来展示代码的执行流程和结果。这些示例代码的质量很高,可以直接复制粘贴并运行,大大降低了学习门槛。对于我这样时间有限的开发者来说,能够快速上手并看到实际效果,无疑是最大的鼓励。书中还穿插了一些“小贴士”和“进阶提示”,这些细节的加入,让这本书在知识深度之外,还增添了一份人文关怀,仿佛作者在默默地指导我如何更有效地学习和实践。此外,附录中的一些资源链接和术语解释,也为我后续的深入研究提供了宝贵的线索,让我对整个机器人开发生态有了更全面的认识。
评分这本书籍,在我初次翻阅时,就立刻被它严谨的学术风格和深入浅出的讲解方式所吸引。书中的每一个概念,都仿佛经过了细致的打磨,从最基础的原理出发,层层递进,直至复杂的技术实现。我特别欣赏作者在阐述核心理论时所采用的类比和图示,这使得一些原本枯燥晦涩的概念变得生动易懂。例如,在介绍机器人控制系统时,作者并没有仅仅停留在数学模型的推导,而是通过一个生动的比喻,将PID控制器的工作原理描绘得淋漓尽致,让我这个初学者也能快速掌握其精髓。更重要的是,书中提供的丰富案例研究,不仅仅是理论的简单复现,而是将理论知识与实际应用紧密结合,展现了如何将抽象的概念转化为可执行的代码,并最终应用于真实的机器人项目中。这种理论与实践的深度融合,是我在其他同类书籍中很少见到的。它不仅仅是一本教程,更像是一位经验丰富的导师,引导着我一步步探索机器人开发的奥秘,不断挑战自己的认知边界。
评分在阅读过程中,我最大的感受是这本书的“前瞻性”。它不仅仅停留在当前主流的ROS版本和技术上,更对未来机器人技术的发展趋势进行了深入的探讨。书中对一些新兴的机器人感知技术、决策算法以及人机交互方式的介绍,让我对这个领域未来的发展充满了期待。作者的视角非常开阔,能够将ROS这样一个具体的开发框架,置于整个机器人技术发展的宏大叙事中去审视,这使得本书的价值远超一本单纯的技术手册。它提供了一种思考问题的方式,一种看待技术演进的视角。例如,在讨论SLAM(同步定位与地图构建)技术时,作者不仅详细介绍了现有的主流算法,还分析了不同算法的优缺点以及它们在不同应用场景下的适用性,并且对未来SLAM技术的发展方向做出了预测,这让我受益匪浅。这种宏观的视野,对于理解技术背后的逻辑和驱动力至关重要。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.coffeedeals.club All Rights Reserved. 静流书站 版权所有