Spark XML解析 [英] Spark XML parsing
本文介绍了Spark XML解析的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我正在尝试使用com.databricks.spark.xml
Dataset<Row> df = spark.read().format("com.databricks.spark.xml")
.option("rowTag", "row").load("../1000.xml");
df.show(10);
我得到的输出如下
++ ||
++
++
++ ||
++
++
我想念东西吗?
这是我的示例XML行.
this is my sample XML row.
<row Id="7" PostTypeId="2" ParentId="4" CreationDate="2008-07-31T22:17:57.883" Score="316" Body="<p>An explicit cast to double isn't necessary.</p>

<pre><code>double trans = (double)trackBar1.Value / 5000.0;
</code></pre>

<p>Identifying the constant as <code>5000.0</code> (or as <code>5000d</code>) is sufficient:</p>

<pre><code>double trans = trackBar1.Value / 5000.0;
double trans = trackBar1.Value / 5000d;
</code></pre>
" />
非常感谢.
推荐答案
尝试在架构中的XML属性名称之前使用_
符号.如果它不起作用-尝试使用@
符号.观看示例,但这已提供适用于旧版Spark.
Try to use _
symbol before an XML attribute name in your schema. If it is not working - try to use @
symbol. Watch example, but it is provided for old Spark version.
这篇关于Spark XML解析的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文