Deep learning keras密集输入层

我主要是一个caffe用户,我想知道如何在一个完全连接的层中输入我的彩色图像,然后将其展平(我知道这不是最好的解决方案,但我需要它)。 这是一个不起作用的示例: model = Sequential() model.add(Dense(1000, input_shape=(img_channels, img_rows, img_cols))) model.add(Activation('relu')) 有什么建议吗?我想我必须设置输入层,然后将其展平,但我不知道如何设置 提前感谢。刚刚找到解决

Deep learning 输出是否算作一层?

在中性网络中,当谈到层时,输出是否算作一层?根据我的读数,似乎有些人算,有些人不算。例如,作者说这是一个两层网络。输入、隐藏和输出不应该至少是3层吗 文章在这里: 根据您的定义,它会起作用。你可以把它定义为一层网络,但我接触过的大多数人都会说这是一个三层网络。sticks是大多数人使用的定义。在Keras或任何其他框架中,这也是以编程方式写成三层的 这取决于使用该术语的人,但通常人们对具有权重的层数感兴趣。(当我想到层与层之间的权重时,这有点奇怪,但无论如何) 根据这种逻辑,上面的网络是一个两层

Deep learning Caffe棋盘工艺品,如何修复?

我使用的是Caffe,我使用的反褶积层如下: layer { name: "name" type: "Deconvolution" bottom: "bottom top: "top" param { lr_mult: 0 decay_mult: 0 } convolution_param { num_output: 256 bias_term: false pad: 0 kernel_size: 2 group

Deep learning CNN回归预测每个测试图像的相同值。

所以,这只是我试图解决的问题的一部分。我有大约200k 64x64x3 RGB图像,这些图像是机器人驾驶过的地形。每个面片都有一个相应的标签,标明该图像面片的粗糙度。粗糙度值的范围为0-160。数据是在机器人以不同速度行驶的情况下收集的,因此粗糙度值的范围也是如此。我的目标是能够预测补丁的粗糙度。我使用的是VGG-16网络,最后一层经过修改以进行回归。我的批量大小是1024,损失是平均误差,优化是rmsprop。网络如下所示。我的问题是,在训练之后,网络对每个测试图像的预测值完全相同。另一点需要

Deep learning 如何按需在Caffe中使用网络snaphot?

我希望能够按需拍摄网络快照,比如在培训进行过程中的某些情况下。有没有一种方法可以通过Caffe实现这一点?例如,通过Python中的回调: 进口咖啡 def OnStart: 无论如何,必须定义两个回调 def ONGRADIENTSRADY: 全局优化求解器 如果solver.iter==17: 解算器快照 解算器=caffe.get\u solvermnist/lenet\u solver\u t1.prototxt solver.add_callbackOnStart,ongradient

Deep learning 如何使用RNN使用6个时间步预测下一个4个时间步

我得到了一个以6个数据点+4个数据点为标签的数据集,他们要求使用6个数据步预测这4个时间步 你能告诉我什么样的模型以及我应该如何使用它吗?我考虑了一些RNN,因为每个点都有时间 谢谢 这些预测依赖于先前输入的问题通常使用RNN网络(RNN、gru和lstm),因为它们保留了先前的状态信息。 为了加深理解: 请仔细阅读我在代码中写的注释 from __future__ import absolute_import, division, print_function, unicode_litera

Deep learning 哪种GAN模型最适合在成对数据集上生成胡须和无胡须的图像

我对GAN比较陌生,不知道哪种GAN模型最适合这个用例: 我有一个数据集,其中包含一对没有胡子和胡子的男人的照片 我想用这些成对的图像训练一个GAN,最后我想给NN输入一个输入图像,然后生成一个输出图像 我认为这可能是一个图像到图像的转换或CycleGAN。这里是一个最先进的图像转换模型。CycleGan可能是最著名、最容易使用的。CycleGan是一个不错的选择,但CycleGan出现的原因是,配对数据并不总是可以收集的。如果你使用它,你将不必要地训练一个模型,当你不想让它学习B->a翻译时,

Deep learning Pytorch中每个历元的精度

我正在努力计算Pytorch中CNN分类器训练函数中每个历元的精度 在我运行这个脚本之后,它总是打印出0、0.25或0.75,这显然是错误的。我猜问题在于get_精度函数的输入(输出和标签),因为它们不是整个历元的累积值,但不确定如何修复 理想情况下,我想打印出每个历元的训练和测试精度 def get_accuracy(pred, actual): assert len(pred) == len(actual) total = len(actual) _, predicted =

Deep learning 培训损失完全不变(PyTorch)

我试图解决一个文本分类问题。我的训练数据以80个数字的顺序输入,每个数字代表一个单词,目标值仅为1到3之间的数字。 我通过这个模型传递它: class Model(nn.Module): def __init__(self, tokenize_vocab_count): super().__init__() self.embd = nn.Embedding(tokenize_vocab_count+1, 300) self.embd_dro

Deep learning 使用PyTorch变压器生成长序列的正确方法是什么?

我试图从一个示例文本中使用PyTorch Transformers生成一个长的文本序列。我是为了这个目的而跟随的。因为原始文章只预测给定文本中的一个单词,所以我修改了脚本以生成长序列而不是一个。这是代码的修改部分 # Encode a text inputs text = """An examination can be defined as a detailed inspection or analysis of an object or person. For

Deep learning Keras中零填充嵌入层的索引

我正在Keras中构建一个RNN模型,用于从gensim中嵌入单词的句子。我正在用手套向量初始化嵌入层。因为这是一个序列模型,句子长度可变,所以向量是零填充的。e、 g [0, 0, 0, 6, 2, 4] 假设手套向量具有维度[NUM\u VOCAB,embedded\u SIZE]。零索引被屏蔽(忽略),以便获得正确的单词索引,我们是否向手套矩阵中添加额外的列,以便维度为:[NUM\u VOCAB+1,embedded\u SIZE] 似乎存在一个不必要的向量,除非有更优雅的方法,否则模型

Deep learning 找不到HDF5数据集数据

我对咖啡馆和深度学习都是新手。我想使用从下载的数据集来训练我的模型 我的列车数据为hdf5格式。它还具有以下参数 { "debug": false, "git_revision": "60c477dae59f3d1378568e2ebea054a135683e2f", "height": 128, "no_train_mirrors": false, "output_dir": "/tmp/parse27k_crops_64x128",

Deep learning 我们如何知道何时停止在预先训练的模型上训练模型?

我很抱歉,因为我的问题可能听起来很愚蠢。但我对深度学习和caffe很陌生。 我们如何检测需要多少次迭代来微调在我们自己的数据集上预先训练的数据?例如,我为自己的数据运行fcn32,包含5个类。我什么时候可以通过查看培训阶段的损失和准确性来停止微调过程 非常感谢通常,您会收敛到模型的特定验证精度。在实践中,如果验证损失在x个时期内没有增加,您通常会停止培训。根据您的历元持续时间,x通常在5到20之间变化 编辑: epoch是trainig在数据集上的一次迭代,用ML表示。您似乎没有验证集。通常情况

Deep learning 基于卷积神经网络概念的图像处理

假设我有一个CNN,它被训练用于对不同动物的图像进行分类,这种模型的输出将是n空间维度中的一个点(输出点),其中n是模型训练的动物类的数量;然后,将该输出转换为一个包含n参数的热向量,然后从CNN的角度为图像提供正确的标签,但让我们继续使用n维度点,这是输入图像的概念 假设我想取该点,并以某种方式对其进行变换,以使最终输出是一个具有约束宽度和高度的图像(不同输入图像的尺寸应相同),该图像输出与输入图像相同的点,我该如何做 我基本上是在询问这类任务所使用的方法(主要是训练),其中必须根据CNN的输

Deep learning ValueError:输入数组的采样数应与目标数组的采样数相同

使用带有Tensorflow后端的Keras DL库,我试图从VGG-16的中间层提取特征,以便对我感兴趣的任务执行二进制分类 该数据集包含1000个(每类500个)训练样本和200个(每类100个)测试样本。我在提取特征的基础上训练一个完全连接的小模型。在运行代码时,我可以看到train_数据的大小是(10000,6,6512),validation_数据是(2000,6,6512)(float32),train_标签是(1000,2),validation_标签是(200,2)(int32)

Deep learning 对图像中特定对象进行硬负片挖掘用于SSD训练

我用它来检测物体。 我用SSD和caffe。SSD是用于多目标尺寸检测的卷积神经网络。 检测灵敏度相当好。 但是,一致地检测相同的对象会产生特异性问题。在检测中拒绝这些物体的正确方法是什么。 我知道SSD有硬负片挖掘,我正试图在硬负片挖掘中包含这些对象。 这种方法正确吗?或者有没有更好的方法来拒绝使用SSD的人?我为SSD的硬负片挖掘所做的是,我创建了一个图像,其中所有这些对象以不同的大小给出假阳性。我在训练中拍了一些这样的照片。然后按1:3的比例,对这些对象进行硬负开采

Deep learning 修改Caffe VGG 16以处理PyTorch上的1通道图像

我正在将VGG16网络转换为完全卷积网络,并修改输入以接受单通道图像。下面给出了再现性的完整代码 import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable import numpy as np import torchvision.datasets as datasets import copy from torch.utils import m

Deep learning 神经隐藏层中的单位能捕捉到相同的特征吗?

在神经网络中,定义了输入层、隐藏层和输出层三个主要部分。我们为隐藏层提供相同的输入,所以我们可以在隐藏层中获得相同的单位。例如,我们给狗图片作为输入,我们的隐藏层捕捉狗的身体部位。我想知道的是,他们有没有可能用两个单位的隐藏层捕捉到和眼睛一样的身体部位 我知道输入是相同的,但我们初始化权重的方式不同。因此,发生这种情况的可能性很低。但是,我很好奇的是,它们是否有可能发生这种情况,可以将隐藏层的单位相互依赖 从理论上讲,可能有两个或多个单元拾取输入的同一特征;然而,如果网络设计良好,在实践中就不应

Deep learning 尝试在灰度图像上使用自定义主干训练FastErrorCNN时出错

为了在灰度图像上为1类创建对象检测器,我按照教程中的说明进行操作 以下是我的代码(请注意,我在自己的数据集上使用DenseNet作为主干-预训练模型): 这是我遇到的错误: RuntimeError:给定的组=1,大小的权重[64,1,7,7],预期输入[2,3,1344,800]有1个通道,但得到了3个通道 基于FasterRCNN体系结构,我假设问题出在transform组件中,因为它试图规范化最初为灰度而非RGB的图像: FasterRCNN( (transform): General

Deep learning 如何使用监督学习预测短语是否与短文或文章相关?

我有一套短句和一套课文。我想预测一个短语是否与一篇文章相关。文章中没有出现的短语可能仍然相关 注释数据(非真实)的一些示例如下: 例1 短语:汽车 Text:在电动汽车市场上价格更实惠的选择中,2021特斯拉3型无疑是最便宜的 大多数名称识别。它借鉴了该公司的设计风格 S型轿车和X型SUV,但其独特的 室内设计和全玻璃屋顶。加速很快,而且 型号3的底盘也很好玩,特别是性能 车型的,具有更具运动性的悬架和履带式驾驶系统 模式但电动汽车购买者更可能对驾驶范围感兴趣,而不是 快速性或操控性,型号3也在

Deep learning 序列数据是否会使模型过度拟合训练数据?

我正在使用kitti和waymo数据集训练3D目标检测模型。该模型在kitti上运行良好(数据未排序、随机数据、随机选择数据)。但在waymo,这个模型太过合适了。Waymo数据是一个序列数据,所以我随机选择帧,同时输入网络 此外,我还对waymo数据集的模型进行了一些修改,使网络具有更多的嵌入式参数。基蒂也做了同样的改变,效果很好 我正在做8月份的数据,批量标准化和kitti数据集上的一样 我的目标对象是数据中的行人。kitti列车组的行人数量约为3k,waymo列车组的行人数量约为30k。在

Deep learning 如何从解算器协议(CAFFE)更改特定层的学习速率

有人知道如何从解算器协议更改CAFFE中特定层的学习速率吗?我知道有base\u lr,但是我希望以特定层的速率为目标,并通过解算器而不是网络协议来实现 谢谢 每一个需要学习的层(即会话、完全连接等)都有一个特定的lr\u mult参数,可以专门针对该层进行控制lr_mult是“此参数的全局学习率的乘数。” 只需在train\u val.prototxt中为您的图层定义或更改lr\u mult 这对于微调非常有用,因为您可能只希望提高新层的学习速率 有关更多信息,请查看caffe教程。(注意:它

Deep learning 如何在Keras中实现平均池层

在Keras中,似乎没有对RNN的平均池层的内置支持。有人知道如何包装吗 Keras为此设置了一个层averagepoolg1d。如果使用graph API,您应该能够执行以下操作: model.add_节点(AveragePoolg1d(…), 输入=['h0','h1',…,'hn'], 合并(mode='concat',…) 您有顺序模型的示例吗?例如,如何将AveragePoolg1d与启用了return_sequence的RNN层连接。我没有示例,但它看起来应该能够将AverageP

Deep learning Caffe快照:。解算器状态与caffemodel

在训练网络时,每N次迭代拍摄的快照以两种形式出现在一起。一个是.solverstate文件,我想它听起来就是这样,存储损失函数和梯度等的状态。另一个是.caffemodel文件,我知道它存储了训练过的参数 如果你想要一个预先训练好的模型,那么.caffemodel就是你需要的文件,所以我想如果你要测试你的网络,它也是你想要的文件 解决方案状态对什么有好处?在这种情况下,看起来您可以从中重新启动培训,但这与使用.caffemodel有什么区别?.solverstate是否也包含与.caffemod

Deep learning 咖啡馆,坚持住;“数据层预取队列为空”;

我正在caffe上进行一个培训阶段。网络为:VGG16+8卷积层+softmax损耗。因为我的机器,我选择只在CPU上运行。我的内存是8G,数据集是(train+val+测试内存不超过1G) 但是,在输入该命令后,程序会长时间(约10小时)停留在消息“数据层预取队列为空”的点上。在此期间,系统监视器显示我的CPU使用率为100%,内存使用率为69%。由于我的火车批次只有10辆,我认为我的机器能负担得起,很难理解为什么会发生这种情况 以下是网络初始化完成和解算器搭建完成后的输出消息 I0404 1

Deep learning 鉴别器如何在DCGAN上工作?

我正在研究DCGAN,我想知道一些关于它的事情 在伊恩·古德费罗的自然GAN中,鉴别器模型输出一个表示概率的标量值。 但是DCGAN的鉴别器是用CNN架构设计的。我知道CNN的输出是类概率向量 那么鉴别器是如何在DCGAN上工作的呢?DCGAN的鉴别器的输出是什么?请参阅详细答案 简而言之:假设你制作了一个CNN,它有n个输入大小的过滤器和有效的填充。然后输出的形状将为nx1x1。然后,您可以将softmax应用于该形状,并在通道中获得概率 您可能还想阅读我的硕士论文。鉴别器D获取3x64x64

Deep learning fastai模型列表

FastAI使用AWD-LSTM进行文本处理。他们为预先训练好的模特提供。但我找不到关于可用内容的适当文档 他们的目标确实在移动。使用诸如lstm_wt103和wt103_1之类的型号名称。在论坛中,我找到了wt103RNN 在哪里可以找到预训练模型及其下载URL的更新列表?URL在中定义,有两个模型的常量:WT103、WT103\u 1 只有两种型号。您有没有可能找到问题的答案?我也希望使用预先训练过的模型,但没有解释在哪里加载它们以及使用什么步骤。我早就应该接受下面的答案了。可以导入的URL

Deep learning 是否有H2O算法支持多标签分类?

深度学习模型是否支持多标签分类问题或H2O中的任何其他算法 Orginal Response Variable -Tags: apps, email, mail finance,freelancers,contractors,zen99 genomes gogovan brazil,china,cloudflare hauling,service,moving ferguson,crowdfunding,beacon cms,naytev y,combinator in,store, conv

Deep learning 使用LSTM-RNN Python进行预测

我正在使用LSTM-RNN进行销售预测 我已经以70-30的比例对我的模型进行了培训和验证。我有大约144行数据,其中包括两列(日期(YYYY/MM)和销售)。 我只使用sales列来预测价值 我需要知道是否有可能100%地训练你的数据集。如果是这样,我如何预测近期的未来值(样本外数据)。应该为模型提供什么作为输入?因为我是一个新的深入学习,这可能是一些容易的东西,我错过了。任何帮助都将不胜感激。到目前为止,您培训的模型的输入和输出形状是什么?@SaTa我的模型输入形状是(113,1,30),输

Deep learning 为什么我的自动编码器在重建时会生成一些wierd像素?

我一直在研究使用GAN消除图像模糊的问题。我的生成器是一个自动编码器,它应该将模糊图像作为输入并输出去模糊图像。结果很好,但重建图像包含一些奇怪的像素。 每个图像中的中间列是我的输出。有人能帮我理解为什么会出现这些奇怪的伪影吗?如果解码后每个通道的像素RGB值为负或超过255(假设8位),这可能是由溢出下溢引起的。要解决这个问题,只需在显示图像之前用0和255覆盖这些值

Deep learning deepchem中图卷积的输出

我正在使用为我的模型创建特征,如下所示 import deepchem as dc from rdkit import Chem import numpy as np import pandas as pd from rdkit.Chem import Draw from rdkit.Chem.Draw import IPythonConsole smile = 'O=C(C1=CC=C(C=C1)C(O)=O)O' molecules = [] molecules.append(Chem.M

Deep learning 在使用Pytork将培训数据集拆分为CIFAR10的培训和验证集后,如何增加数据?

在PyTorch中对CIFAR10进行分类时,通常有50000个训练样本和10000个测试样本。但是,如果我需要创建一个验证集,我可以通过将训练集拆分为40000个训练样本和10000个验证样本来完成。我使用了以下代码 train_transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))]) test_transform = transforms.

Deep learning 没有名为‘的模块;点数据集’;订货点

我尝试在3D网格Faust数据集上实现此模型。然而,这种失败发生了,我无法解决!pip intall“包装”。我能得到帮助吗谢谢。你能描述一下你要安装的软件包,你使用了什么命令,你遇到了什么错误。我试图在“点”链接中复制点云的实验。你能粘贴命令吗(你运行的命令)还有你得到的输出。你能描述一下你想安装哪个软件包,你使用了什么命令,你得到了什么错误吗。我试着在“点”链接中复制点云的实验。你能粘贴命令(你运行的那个)和你得到的输出吗。

Deep learning 对两幅图像进行相同的随机裁剪

我试图将两个图像输入到一个网络中,我想在这两个图像之间进行相同的转换transforms.Compose()一次只获取一个图像,并生成相互独立的输出,但我需要相同的转换。我自己编写了hflip()的代码,现在我对随机裁剪感兴趣。有没有办法不用编写自定义函数就可以做到这一点 我会使用这样的解决方法-创建从RandomCrop继承的我自己的crop类,用 … 如果self.call_为偶数: self.ijhw=self.get_参数(img,self.size) i、 j,h,w=self.ijh

Deep learning 使用VOCstyle数据集通过mmdetection训练yolov3

当我试着用命令训练你的时候 python mmdetection/tools/train.py config/yolo-darknet53.py 一切都正常,直到第一个纪元开始,错误就发生了 上面写着“ValueError:至少需要一个数组来连接”,我在网上搜索了很长时间。但是没有用。请帮助或尝试给出一些如何实现这一点的想法 这是配置文件 #!user/bin/env python3 # -*- coding: utf-8 -*- _base_ = '../mmdetection/config

Deep learning 是否可以使用PyTorch Lightning Bolt对实例分段任务上的SimCLR进行微调?

我有一个高分辨率无人机图像的数据集,我将其分为大小为512x512的分块。瓷砖将通过描绘特定类型的植被进行注释,并以COCO格式存储。我想使用自我监督学习的例子分割瓷砖。Pytorch Lightning bolts模块提供预先培训的自我监督模型,如SimCLR。根据,应该可以在任何计算机视觉任务上使用螺栓微调SimCLR,例如实例分割 然而,我发现的唯一示例显示了SimCLR在分类任务上是如何进行微调的。一个finetune SimCLR(或另一个自监督模型)如何处理实例分割任务?我认为是的,

Deep learning 不使用阈值的异常检测方法

我使用带阈值的自动编码器进行了异常检测。(数据为时间序列数据)。因此,据我所知,如果异常位于阈值以下,则该阈值方法无法检测异常,那么是否有人建议检测阈值以下的异常或改进算法?谢谢。这里的问题不是阈值的存在。每当您需要/想要从连续输出分数中获得二进制结果时,都需要应用该方法 因此,如果由于异常低于您的阈值而无法检测到异常,则必须执行以下任一项或两项操作: 改进阈值的选择 改进你的异常评分模型

Deep learning 在语义分割中,我们应该为每个类标签创建不同的图像吗?

如果你能回答我的问题,我将不胜感激。我担心我做错了,因为我的网络总是提供没有任何分割的黑色图像。 我正在Caffe中进行语义切分。评分层的输出是批量大小无类图像宽度图像高度。它被发送到SoftmaxWithLoss层,loss层的输出是带有5个类别标签的groundtruth图像 我的问题是:损耗层的这两个输入的维数不匹配。我是否应该为这5个类创建5个标签图像,并将标签层中5的批量大小发送到丢失层 如何准备用于语义分段的标签数据 关于您的尺寸没有问题。每像素输出5个向量,表示每个类的概率。基本事

Deep learning 了解网格lstm的输入。

我正在考虑在图像上应用网格lstm。根据其原始文件,据说: 请注意,块不会接收单独的数据表示形式。数据点通过一对输入隐藏向量和存储向量沿网格的一侧投影到网络中 据我所知,这意味着与lstm的其他变体不同,如多维lstm,其输入是*[所有先前隐藏向量,I*x]的串联,网格lstm不接收数据点(如RGB值)作为输入。相反,这些RGB特征直接用作栅格lstm一侧的隐藏/内存状态。对吗 根据我的理解(根据图2),输入数据直接输入到隐藏向量和内存向量中。此外,输出来自传出内存和隐藏向量。这表明,如有必要,

Deep learning 是否可以包括一个Caffe';是另一个文件中的prototxt文件吗?

Caffe至少需要三个.prototxt文件:用于培训、部署和定义解算器参数 我的培训和部署文件包含相同的部分,描述网络体系结构。是否可以通过将此公共部分从它们中移出到单独的文件中来重构此功能?您正在寻找“一体式”网络。 有关更多信息,请参阅 显然,您不仅可以使用include{phase:XXX},还可以利用stage和state来实现这一点

Deep learning 分段掩模RCNN和FPN

我正在读Facebook研究的论文 Mask RCNN基于检测器更快的RCNN,但有一些改进,例如FPN(特征金字塔网络),ROI对齐,这似乎比ROI池更精确。但是,我不了解关于FPN和掩码RCNN中的掩码的体系结构。事实上,FPN允许获得不同比例的特征图,但看着纸上的图像,我不明白他们是否只使用FPN上的最后一个特征图 所以,问题是:我们是否只使用RPN的最后一个特征图,然后使用一些conv层来预测掩模(用于分割),还是我们也使用RPN的中间层?FCN in mask branch in m

Deep learning 如何防止我的DNN/MLP收敛到平均值

我想使用几个可用的特性来预测一个变量。它似乎与视力或NLP无关。虽然我相信有很好的理由可以证明,要预测的变量是这些特征的非线性函数。所以我只使用普通MLP,如下所示: class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.fc1 = nn.Linear(53, 200) self.fc2 = nn.Linear(200, 100)

Deep learning 如何使用Pytork构建多任务DNN,例如,用于100多个任务?

下面是使用pytorch为两个回归任务构造DNN的示例代码。forward函数返回两个输出(x1,x2)。大量回归/分类任务的网络如何?e、 例如,100或1000个输出。对所有输出(例如x1、x2、…、x100)进行硬编码肯定不是一个好主意。有没有一个简单的方法可以做到这一点?多谢各位 import torch from torch import nn import torch.nn.functional as F class mynet(nn.Module): def __init

  1    2   3   4   5   6  ... 下一页 最后一页 共 22 页