node-streams相关内容
我编写了一个小Node.js脚本来从我正在遍历页面以提取结构化数据的网站上抓取数据。 我为每个页面提取的数据是对象数组的形式。 我想我可以使用fs.createWriteStream()方法创建一个可写流,在每次提取页面后,我可以在该流上增量写入数据。 显然,您只能向流写入字符串或缓冲区,因此我正在执行以下操作: output.write(JSON.stringify(op
..
我使用Node的fs.WriteStream将数据写入文件。我正在循环访问对象数组,并使用WRITE()函数编写每个对象。 问题是,我想知道此循环结束并且所有WRITE()调用都完成后,但我无法使其工作。 我尝试了几种解决方案,例如不使用流,但这会产生其他问题。我上次尝试的解决方案是检查循环是否为最后一项,如果是,则关闭、结束或销毁流。 这些都不管用。该事件在实际写入文件之前发出
..
我在我的NodeJS代码中遇到了这种情况,它计算排列(来自here的代码),但无论如何,我没有从setInterval获得任何输出。 const { Readable } = require('stream'); const { intervalToDuration, formatDuration, format } = require('date-fns'); const { subset
..
我目前正在使用一个名为 s3-upload-stream 的 node.js 插件来流式传输大文件到 Amazon S3.它使用多部分 API,并且在大多数情况下运行良好. 然而,这个模块显示了它的年龄,我已经不得不对其进行修改(作者也弃用了它).今天又遇到了Amazon的问题,很想采纳作者的建议,开始使用官方的aws-sdk来完成上传. 但是. 官方 SDK 似乎不支持管道到
..
我在Cassandra数据库中有数百万行,我想通过一个zip文件(不希望在内存中有潜在的巨大zip文件)流传输到客户端.我正在使用Cassandra-Node驱动程序中的stream()函数,将其传递给Transformer,该Transformer从我关心的每一行中提取一个字段并追加换行符,并通过管道将哪些管道归档到Express Response对象.这似乎工作正常,但我不知道如何在流式传输期
..
我正在尝试使用通过Azure App Service托管的NodeJS Express服务器将响应流式传输到客户端.但是,我注意到它不是真正的流式传输,而是尝试整体发送响应.当响应大小很大(> 50MB)时,客户端会收到内部服务器错误,但服务器不会引发错误. 此外,当我在Docker内部运行服务器(节点映像: 10.22.0-alpine3.9 )时,我看到即使是巨大的响应,客户端也将响应作
..
我正在nodejs模式下使用出色的Papa Parse库,将超过一百万行的大型(500 MB)CSV文件流式传输到慢速持久性API中,一次只能处理一个请求。持久性API基于 Promise s,但是从Papa Parse,我在 synchronous 事件中收到每个已解析的CSV行,如下所示: parseStream.on(“ data”,row => {...} 我面临的挑战是Papa P
..
我正在创建一个Readable流数组(从包含JSON文档的文件中),并试图将它们通过管道传输到另一个流. 文件中的数据正在通过……但是对于管道中接收到的每个对象,我想知道这些数据来自哪个文件: var fs = require('fs'); var path = require('path'); var JSONStream = require('JSONStream'); var
..
我正在处理一个防火墙限制,我一次只能发布10MB的内存.为了处理较大的上载,我想使用类似 http://www.resumablejs.com 之类的东西. ,将多个块写入磁盘,最后将它们重新组合. 我现在正在编写测试,但是我的实现中有问题. 首先,我像这样分割文件: const splitFile = async () => { const chunkSiz
..
我有一个Lambda函数,该函数由对S3存储桶的写入操作触发.它会读取写入存储桶的JSON文件,解析出各个记录,然后将其写入数据库. 问题是;我不确定自己在做什么错,因为在所有数据写入之前,流结束并且Lambda退出. 我处于可读流上的“流模式",并且在数据库写入期间暂停/恢复.根据文档,这应该可以解决问题,但是不能按预期工作. Lambda处理程序: exports.ha
..
我是node.js的新手,不了解有关流的文档.希望得到一些提示. 我正在读取一个非常大的文件行,然后针对每一行调用一个异步网络api. 很明显,本地文件的读取速度比异步调用完成的速度快得多: var lineReader = require('readline').createInterface({ input: require('fs').createReadStream(
..
-期望的行为 -实际行为 -我尝试过的 -复制步骤 -研究 期望的行为 将从多个api请求接收的多个可读流放入单个可写流. api响应来自ibm-watson的 textToSpeech .synthesize()方法. 需要多个请求的原因是因为该服务对文本输入设置了5KB限制. 因此,例如,字符串18KB需要四个请求才能完成. 实际行为 可写流文
..
我正在使用 client.upload 在 pkgcloud 中上传文件目录.所有流完成后执行回调的最佳方法是什么?是否有内置的方法来注册每个流的"finish"事件并在它们全部触发后执行回调? var filesToUpload = fs.readdirSync("./local_path"); // will make this async for(let file of filesT
..
此代码 const file = require("fs").createWriteStream("./test.dat"); for(var i = 0; i [47234:0x103001400] 27539 ms: Ma
..
我目前正在使用名为 s3-upload-stream 的node.js插件来非常流式传输大文件到Amazon S3.它使用了由多个部分组成的API,并且在大多数情况下效果都很好. 但是,此模块正在显示其年龄,我已经不得不对其进行修改(作者也已弃用它).今天,我遇到了另一个与亚马逊有关的问题,我真的很想接受作者的建议,并开始使用官方的aws-sdk完成上传. 但是. 官方SDK似乎
..
我看到,Node.js Stream API中的Transform Streams使用异步函数在块到达时转换块: https://nodejs.org/api/stream.html#stream_transform_transform_chunk_encoding_callback 转换流是否发送他们到达时的顺序是多少?因为使用异步函数,这不是明确的情况。 解决方案 简短回答是:
..
var fs = require('fs'); var child = require('child_process'); var http = require('http') var input_file = fs.createReadStream('./ remo.mp3'); http.createServer(function(req,res){ var args = [
..