xarray相关内容
我需要从月平均或年平均时间序列数据计算5年平均数据(不是滚动平均数据,而是日历年数据)。 在搜索了XARRAY文档之后,我找不到一种简单的方法来完成它。 有没有人有计算这类平均值的方法? 谢谢! 推荐答案 计算5年平均值的最简单方法是将自定义频率传递给resample(),例如 In [24]: ds = xr.Dataset({'x': ('time', np.arang
..
我有一个从 1979 年 1 月 1 日到 2005 年 12 月 31 日的 3D 时间序列数据矩阵.该矩阵当前为 9862x360x720(日降雨量 x 0.5° 纬度 x 0.5° 经度).我想将每日降雨量总和为每月降雨量(总共 324 个月),同时还设置一个阈值来求和 NaN 值. 换句话说,如果一个特定的经纬度网格单元有超过 10 个每日 NaN 值,我想将每月总和单元标记为 Na
..
我试图找到10年内每个季节(DJF, MAM, JJA, SON)的最大降雨量.我正在使用netcdf数据和xarray尝试执行此操作.数据包括降雨(每3小时记录一次),纬度和经度数据.现在,我有以下代码: ds.groupby('time.season).max('time') 但是,当我这样做时,输出的形状为(4,145,192),表示在整个期间内每个季节都取最大值.我想要每年每个季
..
我有一个包含大量变量的每日数据xarray.我想每年提取最大值q_routed,并在最大值q_routed发生的那一天提取其他变量的相应值. Dimensions: (latitude: 1, longitude: 1, param_set: 1, time: 17167) Coordinates: * time
..
即使看起来很简单,我也很难解决这个问题. 我想使用一组经度和纬度坐标来切片xarray数据集. 这是我的数据集的样子: In [31]: data = xr.open_mfdataset(open_file, decode_cf=True) In [32]: data Out[32]: Dimensions: (time: 108120,
..
我想用None替换xarray数据集中变量中的值.我尝试了这种方法,但是没有用: da[da['var'] == -9999.]['var'] = None 我收到此错误:*** TypeError: unhashable type: 'numpy.ndarray' 我可以在这里使用类似numpy replace的东西吗? da是xarray数据集.这是da的样子:
..
我有一个xarray数据集ds Dimensions: (elevation_band: 4, latitude: 1, longitude: 1) Coordinates: * longitude (longitude) float64 -111.4 * latitude (latitude) float6
..
当我用numpy的权重进行滚动/滚动平均时,例如做这样的事情: data = np.random.random(100) # Example data... weights = np.array([1, 2, 1]) data_m = np.convolve(data, weights/float(np.sum(weights)), "same") 然后将data_m [0]和data
..
我正在使用xarray读取NetCDF文件.每个变量都有4个维度(时间,lev,y,x ).读取变量后,我将计算变量 QVAPOR 的 平均值 ,以及( Times,lev )尺寸.计算后,我得到变量 QVAPOR_mean ,它是一个二维形状的变量( y:699,x:639 ) Xarray仅用了10微秒即可读取具有形状的数据(时间:2918,lev:36,y:699,x:639 );但花
..
我有一个netCDF文件,其时间维度包含按小时排列的2年数据.我希望将其取平均值,以获得每月每个小时的每小时平均值.我试过了: import xarray as xr ds = xr.open_mfdataset('ecmwf_usa_2015.nc') ds.groupby(['time.month', 'time.hour']).mean('time') 但我收到此错误:
..
pandas数据透视表文档似乎建议处理以下内容:使用多重索引的两个维度的数据: In [1]: import pandas as pd In [2]: import numpy as np In [3]: import pandas.util.testing as tm; tm.N = 3 In [4]: def unpivot(frame): ...: N, K
..