Spark XML 解析 [英] Spark XML parsing
本文介绍了Spark XML 解析的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我正在尝试使用 com.databricks.spark.xml
Dataset<Row> df = spark.read().format("com.databricks.spark.xml")
.option("rowTag", "row").load("../1000.xml");
df.show(10);
我得到的输出如下
++ ||
++
++
++ ||
++
++
我错过了什么吗?
这是我的示例 XML 行.
this is my sample XML row.
<row Id="7" PostTypeId="2" ParentId="4" CreationDate="2008-07-31T22:17:57.883" Score="316" Body="<p>An explicit cast to double isn't necessary.</p>

<pre><code>double trans = (double)trackBar1.Value / 5000.0;
</code></pre>

<p>Identifying the constant as <code>5000.0</code> (or as <code>5000d</code>) is sufficient:</p>

<pre><code>double trans = trackBar1.Value / 5000.0;
double trans = trackBar1.Value / 5000d;
</code></pre>
" />
非常感谢.
推荐答案
尝试在架构中的 XML 属性名称之前使用 _
符号.如果它不起作用 - 尝试使用 @
符号.观看示例,但提供了用于旧版 Spark.
Try to use _
symbol before an XML attribute name in your schema. If it is not working - try to use @
symbol. Watch example, but it is provided for old Spark version.
这篇关于Spark XML 解析的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文