tensorflow相关内容
给定以下代码 encoder_inputs = Input(shape=(16, 70)) encoder = LSTM(latent_dim, return_state=True) encoder_outputs, state_h, state_c = encoder(encoder_inputs) # We discard `encoder_outputs` and only keep
..
我用LSTM开发了一个时间序列模型。我不能用它来预测未来几天的股价。我想用它来预测明年的股票价格,然后画出来。如何用它来预测未来(明年)的股价? df=pd.read_csv('foolad.csv') df=df.set_index(pd.DatetimeIndex(df['Date'].values)) data=df.filter(['Close']) dataset=data.va
..
我使用的是TensorFlow 2.4和TensorFlow的新功能 这里是代码 model = Sequential() model.add(LSTM(32, input_shape=(X_train.shape[1:]))) model.add(Dropout(0.2)) model.add(Dense(1, activation='linear')) model.compile
..
我正在使用Colab创建一个笔记本,它训练机器接收字符串并以手写样式输出。我使用thisJupyter笔记本作为如何实现此类操作的指南,因为这是我第一次使用机器学习。 我已经将笔记本中的TensorFlow降级到1.15.2,以避免不同版本支持不同属性的问题-主要是因为我引用的上述笔记本是使用TensorFlow 1.X版本创建的,我创建的笔记本使用的是Python 3。 在下面的代码
..
我正在尝试使用Google Colab TPU上的KERAS训练序列到序列模型的机器翻译。 我有一个可以加载到内存中的数据集,但我必须对其进行预处理才能将其提供给模型。特别是,我需要将目标单词转换为一个热点向量,并且在许多示例中,我无法将整个转换加载到内存中,因此我需要批量处理数据。 我将此函数用作批处理生成器: def generate_batch_bert(X_ids, X_mas
..
我已经创建了一个由元素及其对应标签组成的TFRecord数据集文件。我想把它用在使用免费TPU的Colab上的培训模型上。我可以加载TFRecord文件,甚至可以运行迭代器来查看内容,但是,在它引发以下错误之前,它会抛出以下错误- UnimplementedError: From /job:worker/replica:0/task:0: File system scheme '[local
..
我在尝试开始训练我的模型(DCGAN)时遇到了很多问题。它给我显示错误: 'tuple' object has no attribute 'layer' 我读到这可能是因为同时安装了TensorFlow 1.14.0版和KERAS 2.2版或更高版本。 我试图通过将KERAS版本降级到2.1.5来解决此问题,但我仍然遇到同样的问题。 from google.colab import
..
我可以访问一台大型IBM Power8计算机,并希望在其上安装TensorFlow。当然,我尝试了快速pip安装,但失败了: sudo pip install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.6.0-cp27-none-linux_x86_64.whl tensorflow-0.6.0-cp27
..
我已经从TensorFlow Object Detection APIfaster_rcnn_inception_resnet_v2_atrous_coco训练了大约10个类的对象检测模型。当我运行model_main.py文件评估模型时,它似乎只给出了所有10个类的平均准确率(AP)和平均召回率(AR),如下所示: Average Precision (AP) @[ IoU=0.50:0
..
您好,我正在尝试一个非常简单的项目来了解TensorFlow中的工作原理。我只给了3个简单的数组,它找不到给我一个错误之间的关系。为什么会这样,如何克服呢?以下是我的代码 import tensorflow as tf from tensorflow import keras x = [[1,2,5,6],[12,5,1,7],[1,5,7,9]] y = [[1],[4],[3]] m
..
我在做CNN,我注意到在培训阶段它100%使用CPU,而不是GPU(我有一台GTX 1660Ti)。 Tensorflow无法识别我的1660Ti 我尝试从TensorFlow网站关注this guide。 import tensorflow as tf print("Num GPUs Available: ", len(tf.config.list_physical_devic
..
我一直想试用TensorFlow,但我不知道我的系统是否有足够的硬件要求。 我的系统规格是英特尔i3处理器 4 GB内存1TB硬盘 NVIDIA 210 GPU 此配置是否足以运行像图像识别这样的简单AI项目? 我已经搜索了网站和其他资源,但没有找到有关系统要求的详细信息。 GPU 更新2020-01-17:免费试用在线推荐答案实例。例如,colab.research.
..
在GPU上训练TensorFlow模型时,调用: model.fit(...) 立即退出,代码为-1073740791(0xC0000409): Epoch 1/500 2021-10-16 20:13:42.154951: I tensorflow/stream_executor/platform/default/dso_loader.cc:53] Successfully op
..
我刚刚在一个全新的conda环境中安装了tf,并且尝试安装了两个版本的cudnn,不确定是否相关。GPU不工作,因为我收到此错误: tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudar
..
我有一个很大的数据集,我想用它来训练带有Kera的CNN(太大了,无法将其加载到内存中)。我总是使用ImageDataGenerator.flow_from_dataframe进行培训,因为我将图像放在不同的目录中,如下所示。 datagen = ImageDataGenerator( rescale=1./255. ) train_gen=datagen.flow_from_dat
..
我正在尝试在KERAS中创建多输出模型。该模型从卷积开始,旨在将两个独立的致密层的结果叠加在一起。我为回归任务创建了一些随机数据,其中x1是输入,df是标签。df包含三列。在定义了列车和测试拆分并形成模型后,我在拟合模型时收到错误。有人能帮我更正代码吗? x1 = np.random.rand(500, 244, 244, 20) df = pd.DataFrame(np.random.u
..
我正在构建一个卷积神经网络,它将包含一定数量的卷积和池层。问题是我想在特征提取步骤(卷积+池化)之后添加一些额外的输入。 此额外输入将添加到展平的要素地图(完全连接图层的第一层)。我想问一下,是否有任何文档可以在TensorFlow或(如果我幸运的话)在keras中实现此功能。 提前感谢您,祝您度过愉快的一天。 推荐答案 您可以使用tf.keras.models.Model类创建这样
..
完全错误: 未知错误:无法获取卷积算法。这可能是 因为cuDNN初始化失败,所以请尝试查看是否有警告 上面打印了日志消息。[OP:Conv2D] 软件包安装命令: conda install -c anaconda keras-gpu 它已安装: 张力板2.0.0 pyhb38c66f_1 TensorFlow 2.0.0 GPU_py37h57d29ca_0 Te
..
我正在使用TensorFlow构建CNN模型,我想知道是否可以以某种方式设置权重初始化的种子,以便能够在任何地方都拥有相同的种子,以便可以在我的模型的不同体系结构之间进行比较。在堆栈溢出问题上找到了类似Tensorflow weight initialization的答案,但对我没有真正的帮助,因此我们将感谢您的帮助。提前感谢! 推荐答案 您可以根据需要在所有层设置kernel_ini
..
我在Google CoLab中使用TensorFlow和Kera创建了一个图像分类模型。它分别与GPU版本1.15和2.2.4一起保存在那里。现在我想在我的远程机器上加载CPU和1.10和2.2.2版本,我无法做到这一点,而且出错了。这是我第一次使用CNN以及TF和KERAS,所以我不能找出确切的原因和如何解决这个问题。我已经在下面提到了代码和错误: import tensorflow as
..