如何从MediaWiki的所有页面导出文本? [英] How to export text from all pages of a MediaWiki?

查看:209
本文介绍了如何从MediaWiki的所有页面导出文本?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有一个MediaWiki运行,它代表一个德语词典的字典,并将其翻译成一个当地的方言。每页包含一个术语,其翻译和一些额外的信息。



现在,对于可打印版本的字典,我需要全部出口所有术语和他们的翻译。由于这是页面内容的摘录,我想我需要以最高版本的格式完全导出其最新版本的所有页面。 xml或csv。



有没有人做过这个或者可以指向我的工具?
我应该提到,我没有完全访问服务器,例如没有命令行,但我可以添加MediaWiki扩展或访问MySQL数据库。

解决方案

我不完全满意解决方案,但是我最终为所有页面指定了一个常见类别,然后我可以在特殊:导出框中添加此类别和所有包含的页面名称。似乎工作,虽然我不知道如果它仍然可以工作,当我达到几千页。


I have a MediaWiki running which represents a dictionary of German terms and their translation to a local dialect. Each page holds one term, its translation and a number of additional infos.

Now, for a printable version of the dictionary, I need a full export of all terms and their translation. Since this is an extract of a page's content, I guess I need a complete export of all pages in their newest version in a parsable format, e.g. xml or csv.

Has anyone done that or can point me to a tool? I should mention, that I don't have full access to the server, e.g. no command line, but I am able to add MediaWiki extensions or access the MySQL database.

解决方案

I'm not completely satisfied with the solution, but I ended up specifying a common category for all pages and then I can add this category and all of the containing page names in the Special:Export box. It seems to work, allthough I'm not sure if it will still work when I reach a few thousand pages.

这篇关于如何从MediaWiki的所有页面导出文本?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆