你好
我有一个关于光栅/点云的问题。我有一个压缩文件,其中包含可变数量的光栅。
每个光栅的边界可以是不同的,并且可能有不常见的单元。
我有一个工作表,可以在其中用x y z行创建单独的csv文件。
我需要创建一个单一的csv与所有光栅的组合。
此csv的行必须遵循此架构:
X Y Zraster1 Zrster2…..
对于非普通单元格
X Y Z Zraster2 Zraster4等
我该怎么做?我已经找到了一种使用功能阅读器和连接字符串的方法,但是对于大光栅来说,速度非常慢(需要几天时间)。
任何帮助都将不胜感激
谢谢
奥斯卡
你好,
我看不到PointCloudStatisticsCalculator的“计数”选项。是否可以添加?应该可以知道有多少数据点被用来生成统计数据;它在报告统计数据时非常有用。因为需要生成平均值,我猜这个工具已经计算出来了,但无法给用户提供不使用额外变压器输出的选项。
对于这个非常有用的工具来说似乎是个失误。
干杯,
梅兰妮
蒙特利尔
大家好,
我正在研究一个基于DEM和一些图层的地雷地图,就像河流,植被和地下。
我想了解一些有关如何将地质层与DEM点云联系起来,然后导出到Minecraft的技巧。我有一个.tiff和一些.shp文件,我以伯恩岛的工作台为基础,所以我认为它可能与定制变压器“Minecraftrasterizer”有关。
事先谢谢!
Lastools已经与FME集成,但它不是开源的。如果我们能用pdal库处理点云,那就太好了。
你好,
我在将组件写入PointCloud(.csv)文件时遇到问题。我制作了一个工作台,使用PointCloudMerge合并2个PointClouds。点云包含河流的深度信息,代表两个不同的时期。信息在一定程度上存在地理重叠,因此a进行了合并,产生了3个输出(根据x和y合并,未合并和未引用)使用pointcloudcombiner,3个输出将组合到1个pointcloud,一个pointcloud编写器编写新创建的pointcloud(.csv)。问题是在新的点云中只有几个组件(x,是的,Z和Z_last)已存储。原始的点云包含了更多的组件(每个测量周期的深度等等),我在数据检查器中看到了这些组件,但在新创建的点云中没有看到。是否有可能将原始组件也存储在新创建的点云中?
所附图片显示了新创建的点云的输出和数据检查器中显示的数据。
我有一个18亿点的点云数据集,我在过滤单个组件值。pointcloudfiltering需要15分钟,不会耗尽CPU/内存或IOPS,所以速度会更快。然而,PointCloudFilter没有并行的能力。有人知道如何让跑步更快吗…?
我还测试了使组件成为空间的,然后使用点云上的剪辑,但在我进行的几次测试中,速度似乎稍微慢了一些。随着近来各种室内地图解决方案的大肆宣传,我认为一个变压器采取一个室内或室内/室外点云,并从中产生一个三维模型将是非常酷的。我可以看到这是写在三维CAD软件,如revit或尚未发布的Arcgis室内信息模型,故障模式与后果分析,或AVF。像Geoslam和Kaarta Contour这样的单元价格非常便宜,足以使这成为现实,从而有助于将现有建筑投入活跃的室内市场。
嗨,FME社区亚搏国际在线官网
我试着计算固体中的点数(从*.las点云)。实体来自拉伸多边形。
其目的是找出点云是否与现有的二维CAD平面相匹配。为此,我取墙的多段线并将其拉伸。然后我要计算挤压实体(墙)内的点的数量。如果这导致了很多点,我可以假设墙是正确的-如果不是,墙一定是错误的。
如果有人有任何想法并且能帮助我,那就太好了。我只和固体中的点数作斗争。
事先谢谢,并向瑞士致以诚挚的问候
多米尼克
你好,
我有一个包含点数据的大csv文件(18年时间范围内超过3亿点和z值)。它代表湖泊的深度,但深度测量是在不同的年份进行的。一些零件在孔时间范围内测量一次,而其他零件测量一次以上。从这个文件我必须制作不同的光栅数据集,其中之一是“最后测量的深度”。我可以用csv阅读器读取csv并进行计算(参见png,“实际值”表示上一次测量的深度,“jaar”表示测量发生的年份)。但是读csv需要很多时间,我更喜欢“点云XYZ阅读器”的效率。使用点云XYZ阅读器,可以快速读取这个大的csv,但我只能读取一个z值。我的问题是,有没有一种方法可以使用点云XYZ阅读器,并在同一次运行中计算最后一个测量值?或者在FME中有其他方法来处理如此大的数据文件吗?
我有一个点云从莱卡(.bin文件)我怎么能读它在FME。
我能把这个转换成LAS文件或E57吗
嗨,FME社区亚搏国际在线官网,
嗨,FME社区亚搏国际在线官网,
我们有一个用例来制作大点云数据集的小图块,并将这些小图块上传到一个Azure Blob存储。当这在本地工作时,我们要将此工作区发布到FME服务器。
azureBlobUploader需要属性值或文件路径。一种解决方案是使用从以前的转换器创建的临时文件路径作为输入文件路径属性(例如“…\appdata\local\temp\wb-cache-azure\blob-upload-r10040\main\u stringconcatenator-1 52 fo 0 output 0 4acde95f2a8d5665e616291d87184930d8dc9_6.fps”)。是否有方法从fme属性中自动获取这些临时文件路径(例如,StringConcatenator Transformer),以便直接将其用于azureBlobuPloader?我研究了temppathnamecreator变压器,但是,据我所见,这个转换器不会将转换器的输出写入给定的临时文件路径。
我对你的解决方案很好奇。
亲切的问候,
简
我缩放了点云,然后将值四舍五入。因此,举例来说,
(2555,1467年,8695)和(2599,1401年,8622)变为
(25.55)14.67岁,86.95)和(25.99,14.01年86.22条)
四舍五入后,它们都变成同一点(25.0,14.0秒,86.0条)
这意味着我现在有了重复的信息,它让我的.las文件变得不必要的大。有没有方法可以将这些点合并为较小的点云输出?
我希望有人能一步一步地给我介绍一篇文章,或者贴一篇关于如何使用激光雷达从2个不同的年份探测地形变化的文章。我找到了这个问答论坛的答案…
https://knowledge.亚搏在线safe.com/questions/2487/lidar-feature-extraction.html
……但这是一个大致的过程概述,但细节不够详细以前从未尝试过(在任何平台上)。
谢谢你的帮助!
附笔。-我的组织正在使用FME 2016。
你好,
我在使用带有19个las点云的clipper transformer作为输入/clippee和一个mapinfo选项卡文件作为clipper时遇到问题,输出被写入LAZ文件。如果我单独运行工作区,工作区就可以正常工作,如下图所示:
然而,除了“ostile-clipper”的内部端口的输出作为一系列LAZ文件写入外,我还想通过第二个裁剪器(controlSurfaceCapper)将这个输出作为裁剪器,并将其裁剪到另一个mapinfo选项卡文件上。
在启用ControlSurfaceClipper Tranformer及其关联的Clipper输入端口时,第一台变压器的所有输出现在通过“外部”端口输出,没有数据输出,如下图所示:
我该怎么解决这个问题?所以当所有变压器和写入器都启用时,来自第一个剪变压器的数据是通过内部端口输出的?
以下是每个剪具的参数:
事先谢谢!