大学生结业从前曾经对依靠LSTM循环神经网络的股票价格预测方法开展过小小的钻探,趁着前段时间职业不忙,把当中的一片段剧情写下来做以记录。

引自:

农田有效灌注面积指有固定水源、浇灌工程设施配套、土地平整、在平常年景下能够进行健康浇灌的水田面积,包涵机灌面积、电力排水灌注面积、自流灌溉面积和喷灌面积[1]。它是浮现农水建设和水利化的主要目的,也是本国各州段制定水利发展安排的要紧指标之风姿罗曼蒂克。对水田有效灌水面积实行张望可以为理解今后农水基本功设备的建设现象提供有价值的参阅新闻,同一时候也可为相关单位成立拟订行当发展设计提供理论支撑。

 

 

1 预测方案的鲜明与估计方法的选用

  此次股价预测模型仅依据股票(stock卡塔尔的历史数据来树立,不考虑音讯面临个人股的震慑。曾有东瀛大家使用深度学习的措施来对当天的资源音讯内容开展分析,以咬定其对股票价格正面性/负面性影响,并将其与期货的历史数据相结合,各自给与一定的权重来对近期的股票价格进行瞭望[1]。该预测方法获得了鲜明的成效。

华语文档: 
合德文档: 
文书档案主借使以keras2.0。

1.1 预测方案的鲜明

  而那边小编从未引进音讯面包车型地铁震慑,首固然因为以下几点考虑:


土地有效灌注面积的变通受多地点因素的熏陶,比如政策、中心财政资金投入、地点财政资金投入、村民收入意况等。那么些因素并非孤立地对土地有效灌水面积发生潜移默化,而是耦合在一同以非线性的点子影响土地有效灌注面积的生成。

  1.音信的及时性难以管教:比相当多时候,在两只股票(stock卡塔 尔(阿拉伯语:قطر‎的利好/利空新闻出来早先,其股票价格大器晚成度有了十分小幅面包车型大巴增高/下落。音讯的不对称性招致普通民众紧缺直接新闻源。

.

水浇地有效浇水面积的前瞻有两大类方案:黄金时代种为结构式的预测方法,正是经过一定的法子确立起各重点影响因素与土地有效灌注面积之间的涉嫌,然后依据以后各影响因素的改换去预测相呼应的农田有效灌水面积;另一种为数据种类预测法,便是将各年度的水浇地有效灌水面积数值作为三番四遍的小运类别对待,能够以为土地有效灌水面积的变化规律已经包罗在数码种类之中,再使用合适的不二等秘书籍对该体系在今后的取值进行远望。

  2.新闻的准头难以保险:互联英特网音信传播速度超快,媒体中间平时会自可是然互相抄袭音讯的图景,而这种抄来的资源音信(非原创音讯)往往未有经过严酷的审查管理,存在着内容虚假,夸大宣传的恐怕性。风姿洒脱旦解析模型错用了某条蜚言或诚实不高的情报,很有十分大希望得出错误的瞻望结果。

Keras系列:

1、keras种类︱Sequential与Model模型、keras基本构造功用(风姿罗曼蒂克卡塔 尔(阿拉伯语:قطر‎ 
2、keras类别︱Application中三款已训练模型、VGG16框架(Sequential式、Model式卡塔 尔(阿拉伯语:قطر‎解读(二卡塔 尔(阿拉伯语:قطر‎ 
3、keras种类︱图像多分类演练与利用bottleneck
features进行微调(三卡塔尔 
4、keras体系︱人脸表情分类与识别:opencv人脸检验+Keras心理分类(四卡塔 尔(阿拉伯语:قطر‎ 
5、keras系列︱迁移学习:利用英斯ptionV3实行fine-tuning及预测、完整案例(五卡塔 尔(阿拉伯语:قطر‎


在第生机勃勃种方案中,首先要求明确具体影响土地有效灌水面积变化的要素连串及其影响规律,其余还亟需对各要素的前程变化实行预测。准确地分明影响土地有效灌注面积变化的各类因素本人就很有难度,各因素对有效灌注面积影响规律的辨识也如出少年老成辙是二个相比较复杂的题材,而预计各因素今后的转换更是贰个大约和展望农田有效灌注面积难度非凡的主题素材。在第二种方案中,首先须求树立起能够丰硕反映农田有效灌溉面积变化规律的预测模型,然后通过求取该预测模型在今后的输出值就能够兑现预测。二种方案相比较,鲜明第二种方案更易于实现。由此,在偏下斟酌中选用数据系列预测方案。

  3.语言的歧义性:一条情报,其正面性/消极面性往往存在着冒尖解读。举例“习总书记发表中华人民共和国将裁减军备30万”——新华每天电子通信2014.09.04。那条音信日常意义上能够解读为:中心政坛浓郁推动更改,简政放权,大力发展国防军事工业工作。这是意气风发种正面性的解读。而在使用机器学习模型时,如古板的奇怪值降解算法(SVD),很有极大大概会决断其与“二零一八年中国共产党第五次全国代表大会行裁员近3万”这种音讯具备较高的相同度,因此将其分割为消极面信息。

零、keras介绍与基本的模子保存

写成了思想导图,便于观看与明白。

1.2 预测方法的精选

  4.技巧完成相比混乱:那其实是贰个不行重大的由来啦~,获取科学的音信并张开NLP操作,往往供给通过以下流程:人工浏览网页明确稳固可相信的音讯源→设计爬虫达成存效音讯的获得→设计音讯裁剪(填充)方案以回复各异尺寸的音讯→人工标记音信的正/负性(也足以用当日股票价格上涨或下落来注脚)→设计网络模型→演练及注明模型。个中的每一步都极度麻烦耗费时间,何况对于个人股来讲,并非每天都会有音信现身。

1.keras网络布局

home88一必发 1

在数据连串的预计中,最近大范围应用的法子有活动平均法、指数平滑法、线性回归法、紫红预测法、神经互连网法和支撑向量机方法等。那几个办法中神经互联网法和援助向量机方法从精气神上的话尤为符合选择于非线性预测难题。而水田有效灌水面积所结合的多少系列是一个出色的非线性种类。明显在该研究中运用神经网络法和匡助向量机方法比较合适。为了丰富斟酌这二种办法的适用性,以下对这三种艺术实行自己检查自纠分析。

 

2.keras网络布局

home88一必发 2
中间回调函数callbacks应该是keras的精粹~

2 三种预测方法的争鸣底蕴及特色解析

  上边说了那般多,还平昔不初步对本身那几个预测模型举行介绍,上面开始步入正题。在调节解除新闻面包车型大巴勘测之后,小编开端讨论股票价格上涨或下落的原形,作者觉着股票价格就是资金财产博弈结果的展示。这一次建构的估量模型,朴素的主见是经过深度学习模型来侦查破案庄家的操作原理,对拉升、砸盘的景况张开前瞻。为了达到以下目标,小编决定选用以下三个特点来创设互连网模型,即:

3.keras预管理效果

home88一必发 3

2.1 BP神经互联网预测的辩白功底及特点深入分析

上涨或下落幅  最高上涨的幅度  最低降幅  大单净流入 
中单净流入  小单净流入  换此外一只手率

4、模型的节点音信提取

# 节点信息提取
config = model.get_config()  # 把model中的信息,solver.prototxt和train.prototxt信息提取出来
model = Model.from_config(config)  # 还回去
# or, for Sequential:
model = Sequential.from_config(config) # 重构一个新的Model模型,用去其他训练,fine-tuning比较好用

在各种神经互联网中,BP神经网络称得上最突出、使用最为普及的生龙活虎种神经互连网[2,3]。

行使那六特性格来对股票(stock卡塔尔的起伏意况以及资金财产的流动情形创立适用的模子。其他,别的的指标雷同MACD、均线等也是由此一些幼功数据的演算得出,在营造立模型型时并从未将其放入考量范围。

5、 模型概略查询(包罗权重查询卡塔 尔(阿拉伯语:قطر‎

# 1、模型概括打印
model.summary()

# 2、返回代表模型的JSON字符串,仅包含网络结构,不包含权值。可以从JSON字符串中重构原模型:
from models import model_from_json

json_string = model.to_json()
model = model_from_json(json_string)

# 3、model.to_yaml:与model.to_json类似,同样可以从产生的YAML字符串中重构模型
from models import model_from_yaml

yaml_string = model.to_yaml()
model = model_from_yaml(yaml_string)

# 4、权重获取
model.get_layer()      #依据层名或下标获得层对象
model.get_weights()    #返回模型权重张量的列表,类型为numpy array
model.set_weights()    #从numpy array里将权重载入给模型,要求数组具有与model.get_weights()相同的形状。

# 查看model中Layer的信息
model.layers 查看layer信息

BP神经互连网是引用误差反向传来(Back error
propagation,简单称谓BP卡塔尔神经互连网的简单的称呼。BP神经互连网平时由1个输入层、若干隐含层和1个输出层组成,在每层中得以归纳若干个神经元。各相邻层神经元之间多为全连接方式,而同层神经元之间则无连接[4]。各神经元间的连接传递相应的权值,隐含层及输出层各神经元都有投机的阈值。BP神经互连网充当后生可畏种前馈网络,具备前馈网络的共性。商讨注解,三层前馈网络即能够自由精度靠拢大肆三番两次函数及其各阶导数[5]。对队列实行建立模型,从实质上的话就是获得系列的生成泛函,BP神经网络的函数靠拢功用刚好能够完成此进度。

 

6、模型保存与加载

model.save_weights(filepath)
# 将模型权重保存到指定路径,文件类型是HDF5(后缀是.h5)

model.load_weights(filepath, by_name=False)
# 从HDF5文件中加载权重到当前模型中, 默认情况下模型的结构将保持不变。
# 如果想将权重载入不同的模型(有些层相同)中,则设置by_name=True,只有名字匹配的层才会载入权重.

但BP神经网络也存在多少短处,当中比较卓越的是互连网布局的精确显然、易限于局地收敛和清除速度慢。个中互联网布局的不错分明是指在鲜明互连网布局参数的历程中从未可相信的基于能够遵从。而局地收敛则对BP神经网络的函数靠拢成效影响十分的大。

后生可畏.源数目及其预管理

7、如何在keras中设定GPU使用的深浅

本节发源:深度学习theano/tensorflow多显卡多人选取难题集(参见:Limit
the resource usage for tensorflow backend · Issue #1538 ·
fchollet/keras ·
GitHub) 
在利用keras时候会合世三回九转占满GPU显存的图景,能够由此重设backend的GPU占用情形来开展调节和测验。

import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))

 

亟待当心的是,尽管代码或布置范围设置了对显存占用百分比阈值,但在实质上运转中就算达到了那几个阈值,程序有须要的话依旧会突破那几个阈值。换来讲之假诺跑在七个大额集上依然会用到愈来愈多的显存。以上的显存节制只是为了在跑小数目集时幸免对显存的浪费而已。(二零一七年八月13日补充卡塔尔

2.2 匡助向量机预测的论争根基及特点分析

  通过某股票交易软件,作者获得的源数据约有20来个特点,包涵:升幅、现价、上涨或下降、买入、卖价、成交量等等。为了博取地点所述的多样特色,筛选出上涨或下落幅、大单净流入、中单净流入、小单净流入、换其余一只手率那5个特征,并酌量最高增长幅度、最高下跌的幅度三个特点。通过下列公式总结得到。

8.更不错地模型演练与模型保存

filepath = 'model-ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5'
checkpoint = ModelCheckpoint(filepath, monitor='val_loss', verbose=1, save_best_only=True, mode='min')
# fit model
model.fit(x, y, epochs=20, verbose=2, callbacks=[checkpoint], validation_data=(x, y))

 

1 预测方案的规定与测度方法的取舍,文书档案首借使以keras2.0home88一必发。save_best_only展开之后,会如下:

 ETA: 3s - loss: 0.5820Epoch 00017: val_loss did not improve

 

如果val_loss 进步了就能够保留,未有抓实就不会保留。

3 预测模型的确立

home88一必发 4

9.如何在keras中使用tensorboard

    RUN = RUN + 1 if 'RUN' in locals() else 1   # locals() 函数会以字典类型返回当前位置的全部局部变量。

    LOG_DIR = model_save_path + '/training_logs/run{}'.format(RUN)
    LOG_FILE_PATH = LOG_DIR + '/checkpoint-{epoch:02d}-{val_loss:.4f}.hdf5'   # 模型Log文件以及.h5模型文件存放地址

    tensorboard = TensorBoard(log_dir=LOG_DIR, write_images=True)
    checkpoint = ModelCheckpoint(filepath=LOG_FILE_PATH, monitor='val_loss', verbose=1, save_best_only=True)
    early_stopping = EarlyStopping(monitor='val_loss', patience=5, verbose=1)

    history = model.fit_generator(generator=gen.generate(True), steps_per_epoch=int(gen.train_batches / 4),
                                  validation_data=gen.generate(False), validation_steps=int(gen.val_batches / 4),
                                  epochs=EPOCHS, verbose=1, callbacks=[tensorboard, checkpoint, early_stopping])

 

都以在回调函数中起效果:

  • EarlyStopping patience:当early 
    (1卡塔 尔(阿拉伯语:قطر‎stop被激活(如觉察loss相比较上一个epoch训练未有下落卡塔尔,则经过patience个epoch后终止练习。 
    (2卡塔 尔(阿拉伯语:قطر‎mode:‘auto’,‘min’,‘max’之意气风发,在min格局下,就算检查评定值结束下滑则中止训练。在max情势下,当检查评定值不再上涨则截止演练。

  • 模型检查点ModelCheckpoint  
    (1)save_best_only:当设置为True时,将只保留在验证集上质量最棒的模型 
    (2)
    mode:‘auto’,‘min’,‘max’之一,在save_best_only=True时决定品质最好模型的判别准绳,比方,当监测值为val_acc时,格局应该为max,当检查评定值为val_loss时,情势应该为min。在auto格局下,评价法规由被监测值的名字自动测算。 
    (3)save_weights_only:若设置为True,则只保留模型权重,不然将保留整个模型(富含模型结构,配置音讯等卡塔尔 
    (4卡塔 尔(阿拉伯语:قطر‎period:CheckPoint之间的区间的epoch数

  • 可视化tensorboard write_images: 是不是将模型权重以图纸的款式可视化

别的内容可参看keras汉语文书档案

.


3.1 样品数量的预备

透过管理的股票特征数据存款和储蓄在 证券名.csv文件中,雷同下图:

黄金年代、Sequential 序贯模型

序贯模型是函数式模型的简略版,为最简便的线性、自始自终的组织顺序,不分开。

从云南总括年鉴中收集了1990-二零一零年浙江省农田有效灌注面积的总括数据[10]。为了收缩预测模型的复杂程度,接收峰值法对那个数据开展了归黄金时代化管理。将归豆蔻梢头化后的一九八六-2008年数量作为练习样品,二零一零年数目作为验证样本。

 home88一必发 5

Sequential模型的中坚组件

日常供给:

  • 1、model.add,添加层;
  • 2、model.compile,模型训练的BP方式设置;
  • 3、model.fit,模型训练参数设置 + 演练;
  • 4、模型评估
  • 5、模型预测

规定预测模型每便的输入样品中富含6个数据,即用三回九转6年的数据预测第七年的数量。据此可营造操练时的输入样品矩阵(6×18卡塔尔和输出样板向量(1×18卡塔 尔(阿拉伯语:قطر‎。

图中的特征顺序为:日期,大单净流入,中单净流入,小单净流入,上涨或下跌幅,最高上涨的幅度,最高降低的幅度,换另一只手率,股票价格。股票价格在这里处的用途是东挪西撮练习样品输出时,总括多日的总上涨或下跌幅。

1. add:添加层——train_val.prototxt

add(self, layer)

# 譬如:
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dropout(0.25))

 

add里面唯有层layer的开始和结果,当然在序贯式里面,也能够model.add(other_model卡塔尔国加载此外模型,在函数式里面就不太相像,详见函数式。

3.2 预测模型基本参数的规定与教练

注:在对源数据开展管理的时候,平时会遇见空值难点:即,某个特征值为0的时候,系统提交的源数据为”-”或”“。要求张开特殊管理。(平时遇见新股第一天的上涨或下降低的幅度为空,或某交易日大单净流入为空。)

2、compile 练习方式——solver.prototxt文件

compile(self, optimizer, loss, metrics=None, sample_weight_mode=None)

 

其中: 
optimizer: 字符串(预订义优化器名卡塔 尔(英语:State of Qatar)或优化器对象,参谋优化器 
loss: 字符串(预约义损失函数名卡塔尔或指标函数,参照他事他说加以考察损失函数 
metrics:
列表,包罗评估模型在教练和测量检验时的网络品质的指标,规范用法是metrics=[‘accuracy’] 
sample_weight_mode:若是您须要按期间步为样板赋权(2D权矩阵卡塔 尔(阿拉伯语:قطر‎,将该值设为“temporal”。 
默以为“None”,代表按样品赋权(1D权卡塔 尔(英语:State of Qatar)。在底下fit函数的讲明中有连锁的参阅剧情。 
kwargs:
使用TensorFlow作为后端请忽视该参数,若使用Theano作为后端,kwargs的值将会传递给
K.function

注意: 
模型在选用前必得编写翻译,不然在调用fit或evaluate时会抛出分外。

1卡塔 尔(英语:State of Qatar)BP神经网络基本参数的分明与教练。明确BP神经互连网的富含层数为1,输入层神经元数为6,输出层神经元数为1,隐含层神经元数为11。隐含层和输出层的鼓劲函数分别选拔正切型Sigmoid函数和对数型Sigmoid函数。为了抓牢收敛速度,练习时采纳了Levenberg-Marquardt数值优化算法。

1     if fin_temp.ix[day,12]=='-' or  fin_temp.ix[day,12]=='':  # 新股的涨跌幅一栏会出现'','-',需要特殊处理
2         raise_value = 0.0
3     else:
4         raise_value = float(fin_temp.ix[day,12])

3、fit 模型锻练参数+锻炼——train.sh+soler.prototxt(部分卡塔尔国

fit(self, x, y, batch_size=32, epochs=10, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数将模型演习nb_epoch轮,其参数有:

  • x:输入数据。假若模型唯有一个输入,那么x的花色是numpy 
    array,假设模型有多个输入,那么x的品类应当为list,list的成分是对应于各样输入的numpy
    array
  • y:标签,numpy array
  • batch_size:整数,钦赐实行梯度下落时各样batch包括的样本数。演习时叁个batch的样品会被总计一回梯度下落,使目的函数优化一步。
  • epochs:整数,训练的轮数,每种epoch会把练习集轮叁回。
  • verbose:日志展现,0为不在规范输出流输出日志音讯,1为出口进度条记录,2为各种epoch输出生龙活虎行记录
  • callbacks:list,此中的要素是keras.callbacks.Callback的目的。那些list中的回调函数将会在教练进程中的适当时机被调用,仿效回调函数
  • validation_split:0~1之间的浮点数,用来钦命练习集的早晚比例数据作为验证集。验证集将不插手练习,并在种种epoch停止后测量检验的模子的指标,如损失函数、正确度等。注意,validation_split的撤并在shuffle在此以前,因而假令你的多少本身是逐步的,需求先手工业打乱再钦命validation_split,不然大概会现出验证集样品不均匀。
  • validation_data:情势为(X,y卡塔尔国的tuple,是点名的验证集。此参数将隐讳validation_spilt。
  • shuffle:布尔值或字符串,平时为布尔值,表示是或不是在教练进度中专擅打乱输入样板的顺序。若为字符串“batch”,则是用来管理HDF5数据的特有情况,它将要batch内部将数据打乱。
  • class_weight:字典,将分裂的类型映射为分歧的权值,该参数用来在练习进程中调度损失函数(只可以用来练习卡塔 尔(英语:State of Qatar)
  • sample_weight:权值的numpy 
    array,用于在教练时调治损失函数(仅用于演习卡塔 尔(阿拉伯语:قطر‎。可以传递多个1D的与范本等长的向量用于对样板实行1对1的加权,大概在濒有的时候序数据时,传递三个的款型为(samples,sequence_length卡塔 尔(阿拉伯语:قطر‎的矩阵来为种种时间步上的样板赋不一致的权。这种景况下请分明在编写翻译模型时增加了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦定的epoch初叶训练,在世袭从前的教练时有用。

fit函数重回四个History的对象,其History.history属性记录了损失函数和任何指标的数值随epoch变化的场所,就算有验证集的话,也含有了验证集的这么些指标变化情形 
注意: 
要与事后的fit_generator做差异,两个输入x/y分裂。

2卡塔 尔(阿拉伯语:قطر‎扶持向量机基本参数的明确与训练。采纳Epsilon型协理向量机回归算法,经过数十次检测,明显拉格朗日乘子上界为5,不敏感函数取值为0.000
01,核函数选用高斯型,高斯核函数的小幅取0.15。

 

4.evaluate 模型评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch总括在好几输入数据上模型的标称误差,其参数有:

  • x:输入数据,与fit相像,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只好取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数再次来到多个测量试验固有误差的标量值(倘若模型未有别的评价指标卡塔 尔(阿拉伯语:قطر‎,或一个标量的list(假诺模型还会有别的的评说指标卡塔 尔(英语:State of Qatar)。model.metrics_names将付出list中相继值的意思。

假设未有例外表明,以下函数的参数均保持与fit的同名参数肖似的含义 
若果未有极其表达,以下函数的verbose参数(若是有卡塔尔均只可以取0或1

4 预测与剖析

 二.练习样品拼接

5 predict 模型评估

predict(self, x, batch_size=32, verbose=0)
predict_classes(self, x, batch_size=32, verbose=1)
predict_proba(self, x, batch_size=32, verbose=1)

本函数按batch获得输入数据对应的出口,其参数有:

函数的再次来到值是预测值的numpy array 
predict_classes:本函数按batch发生输入数据的类型预测结果; 
predict_proba:本函数按batch爆发输入数据归属各样项指标概率

4.1 二种模型预测技术相比

        
首先设置一个滑行窗口,本次实验少将滑动窗口设置为四二十一个交易日。每一个锻炼样板由51个延续的交易日组成,各类交易日的数码满含上述的两性情子,即多少个50*7的矩阵,而三个样书的输出则是多个交易日之后的收盘价相比明天(即样品的输入中最后多个交易日)收盘价的上涨或下跌低的幅度,设置其上限为0.3,下限为-0.3(当然,延续四个涨到截至板的上升的幅度会抢先0.3,这里将其联合视作0.3)。之所以选用几个交易日之后的上涨或下落幅作为训练样板的输出,是因为国内股票商场是T+1操作法则,当日选购不可卖出,预测的有个别靠后有的可留有操作空间;再有正是一天的拉升/砸盘不时性太大,不易预测,对某个长时间一点的现象开展展望有着更加高的国家长期巩固。

6 on_batch 、batch的结果,检查

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)
  • train_on_batch:本函数在三个batch的数额上進展三次参数更新,函数重返练习标称误差的标量值或标量值的list,与evaluate的情况雷同。
  • test_on_batch:本函数在三个batch的样板上对模型实行评估,函数的回来与evaluate的动静同样
  • predict_on_batch:本函数在三个batch的样板上对模型进行测试,函数重返模型在八个batch上的揣测结果

运用锻炼结束的三种预测模型仿真预测1995-二零零六年的福建省农田有效灌水面积并张开反归生龙活虎化管理。反归生机勃勃化后的各预测值、预测截断误差的相对值和瞭望系统引用误差的断然值见表1。从表1能够看出,扶持向量机的各预测值与实际值更为左近,其估算引用误差的相对化平均值、预测舍入相对误差的相对化平均值都远远小于BP神经互连网预测结果的应和参数。图1中的各预测数据也整个通过了归生龙活虎化管理,从图第11中学一九九三-二零零六局地也足以见到,扶持向量机的预测值基本和实际值重合在一块儿,而BP神经网络的预测值在有个别地点则与实际值相差异常的大,表达基于扶持向量机的预测模型泛化本领越来越强。
利用那三种预测模型分别预测作为验证样板的贰零零玖年湖南省田地有效灌注面积,反归风流罗曼蒂克化后的前瞻结果如表2和图1所示。从表2和图1能够阅览,基于援救向量机的猜测模型在核算样板处的实际预测精度也远不仅BP神经网络,其推断相对误差仅为BP神经互联网预测偶然误差的11.8%。

  归后生可畏化相关专门的学问:因为神经网络激活函数的范围,要求在练习前将数据映射到0~1区间。此番试验中,对近七年的数据,获取其各样特征的最大值与小小值。设置归后生可畏化与函数,在样品拼接的同时将数据进行归风流罗曼蒂克化。

7 fit_generator

#利用Python的生成器,逐个生成数据的batch并进行训练。
#生成器与模型将并行执行以提高效率。
#例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练
# 参考链接:http://keras-cn.readthedocs.io/en/latest/models/sequential/

 

有了该函数,图像分类练习职务变得十分轻巧。

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

# 案例:
def generate_arrays_from_file(path):
    while 1:
            f = open(path)
            for line in f:
                # create Numpy arrays of input data
                # and labels, from each line in the file
                x, y = process_line(line)
                yield (x, y)
        f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
        samples_per_epoch=10000, epochs=10)

 

任何的八个帮扶的原委:

evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)
predict_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False, verbose=0)

 

evaluate_generator:本函数使用多个生成器作为数据源评估模型,生成器应重临与test_on_batch的输入数据风度翩翩致类其余数目。该函数的参数与fit_generator同名参数含义相像,steps是生成器要再次回到数据的轮数。 
predcit_generator:本函数使用多个生成器作为数据源预测模型,生成器应再次来到与test_on_batch的输入数据生机勃勃致档案的次序的多寡。该函数的参数与fit_generator同名参数含义相同,steps是生成器要回来数据的轮数。

4.2 新疆省“十九五”时期农田有效灌注面积的前瞻与深入分析

样本 输入的归生龙活虎化:

案例一:简单的2分类

For a single-input model with 2 classes (binary classification):

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

其中: 
Sequential()代表类的最初化; 
Dense代表全连接层,那个时候有35个全连接层,最后接relu,输入的是100维度 
model.add,增添新的全连接层, 
compile,跟prototxt同样,一些教练参数,solver.prototxt

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

事先报过那样的不当,是因为版本的标题。 版本1.2里头是nb_epoch
,而keras2.0是epochs = 10

 error:
    TypeError: Received unknown keyword arguments: {'epochs': 10}

 

其中: 
epoch=batch_size * iteration,拾三遍epoch代表锻练十一回练习集

最后代码是依附keras ==1.2

# -*- coding:utf-8 -*-

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

 

事实上,预测结果是在现成条件的底蕴上从数量系列的角度进行的估量,借使在“十七五”期间,政坛大幅增加水利行当的资金投入,最终的发展处境将会比该预测结果越来越好。

 1 def normalize_oneday(stockN,fdata,day):
 2     max_min = list(max_min_list[stockN])
 3     in_1 = (fdata.ix[day,1]-max_min[1])/(max_min[0]-max_min[1])
 4     in_2 = (fdata.ix[day,2]-max_min[3])/(max_min[2]-max_min[3])
 5     in_3 = (fdata.ix[day,3]-max_min[5])/(max_min[4]-max_min[5])
 6     in_4 = (fdata.ix[day,4]-max_min[7])/(max_min[6]-max_min[7])
 7     in_5 = (fdata.ix[day,5]-max_min[9])/(max_min[8]-max_min[9])
 8     in_6 = (fdata.ix[day,6]-max_min[11])/(max_min[10]-max_min[11])
 9     in_7 = (fdata.ix[day,7]-max_min[13])/(max_min[12]-max_min[13])
10     return [in_1,in_2,in_3,in_4,in_5,in_6,in_7]

案例二:多分类-VGG的卷积神经互联网

import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

标准序贯网络,标签的练习情势 
注意: 
此地特别主要的一点,对于作者如此的生手,这一步的法力?

keras.utils.to_categorical

 

专门是多分类时候,笔者前边感觉输入的正是一列(100,卡塔尔,可是keras在多分类职务中是不认得那几个的,所以需求再加上这一步,让其转变为Keras认得的数码格式。

 

提起底代码基于Keras==2.0

# -*- coding:utf-8 -*-


import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

在对土地有效灌水面积举行预测时,数据类别预测法比结构式预测法更为简易易行。在种种数码连串预测方法中,神经互联网预测方法和依据扶持向量机的测度方法特别符合农田有效灌溉面积的非线性别变化化规律。

样本 输出的归生机勃勃化与反归生机勃勃化:

案例三:使用LSTM的队列分类

具体的专门有链接来写:

.


钻探针对BP神经互联网和支持向量机二种预测方法开展了对待解析。理论商讨评释,基于帮助向量机的张望方法能够摆平BP神经互连网的多多败笔,具备优异性。

def normalize_raise(volume):
    norm_value = (volume+0.3)/0.6
    if norm_value>1:
        norm_value = 1   #涨跌幅超过30%的都定义为 1或0
    elif norm_value<0:
        norm_value = 0
    return norm_value
def denormalize_raise(value):
    volume = value*0.6-0.3
    return volume

三、Model式模型

发源keras普通话文书档案: 
比序贯模型要复杂,不过效果很好,可以同一时间/分等第输入变量,分等第输出想要的模型; 
一句话,只要你的模子不是形似VGG同样一条路走到黑的模型,大概你的模型要求多于三个的出口,那么您总应该选用函数式模型。

分裂之处: 
挥洒结构完全差别等

以湖南省1989-二〇〇八年的庄稼地有效灌注面积总计数据为底子,详细阐释了动用三种预测方法创设预测模型的进度,并实行了选用注解。验证结果评释,基于扶助向量机的测度方法具有更加好的泛化手艺,预测精度更加高。最终收获了江西省“十七五”时期农田有效灌注面积的预测数据并提议了其发展趋势。

         设置滑动窗口sample_window =
[],每一遍遍历生机勃勃行特征数据,归少年老成化后插入窗口末尾,当窗口大小寒50时,计算3天后上涨或下降低的幅度,拼接出三个演习样品,并将sample_window中率先个交易日的值弹出。

函数式模型基本属性与教练流程

诚如要求: 
1、model.layers,加多层新闻;  
2、model.compile,模型演习的BP格局设置; 
home88一必发,3、model.fit,模型训练参数设置 + 练习; 
4、evaluate,模型评估; 
5、predict 模型预测

1 normalized_daily_sample = normalize_oneday(stockN_list_str[i],fin_temp,day)
2 # TODO 给样本插入该日数据
3 sample_window.append(normalized_daily_sample)   #存入一个样本list,特征数为7,全部归一化完毕
4 if len(sample_window)==window_len:  # 窗口大小满50
5     #TODO 需要对涨幅进行归一化 暂定 30% TODO
6     raise_3days = normalize_raise(float(fin_temp.ix[day+3,8])/float(fin_temp.ix[day,8])-1.0)
7     samples.append([sample_window,raise_3days])
8     sample_window = sample_window[1:]

1 常用Model属性

model.layers:组成模型图的各个层
model.inputs:模型的输入张量列表
model.outputs:模型的输出张量列表

 

遍历完全部数据行后,得到数百个训练样板。并将锻练样品转存为numpy.array格式以造福练习。

2 compile 锻练格局设置——solver.prototxt

compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None)

 

本函数编译模型以供演习,参数有

optimizer:优化器,为预约义优化器名或优化器对象,参照他事他说加以考查优化器 
loss:损失函数,为预订义损失函数名或三个指标函数,参谋损失函数 
metrics:列表,包括评估模型在练习和测验时的性质的目标,标准用法是metrics=[‘accuracy’]假定要在多输出模型中为不相同的出口钦命分歧的指标,可像该参数传递多少个字典,举例metrics={‘ouput_a’:
‘accuracy’} 
sample_weight_mode:假诺您必要定期间步为样板赋权(2D权矩阵卡塔尔国,将该值设为“temporal”。默感觉“None”,代表按样板赋权(1D权卡塔 尔(阿拉伯语:قطر‎。 
倘若模型有三个出口,能够向该参数字传送入钦命sample_weight_mode的字典或列表。在上面fit函数的讲解中有连带的参照剧情。

【Tips】倘若您只是载入模型并运用其predict,能够不用举办compile。在Keras中,compile重要成就损失函数和优化器的后生可畏对布署,是为练习服务的。predict会在里面开展标志函数的编写翻译工作(通过调用_make_predict_function生成函数卡塔 尔(英语:State of Qatar)

 注:跳点难题,具体分为除权(上涨或下落低的幅度超过一成)与停盘(相邻交易日间距超越10天)。对于跳点难点,大家决断其是或不是爆发,黄金年代旦产生跳点,就清空sample_window,从下三个交易日重新起头猜测样品输入,以杜绝样板输入中有跳点数据。

3 fit 模型练习参数设置 + 练习

fit(self, x=None, y=None, batch_size=32, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数用以练习模型,参数有:

  • x:输入数据。如果模型独有多个输入,那么x的种类是numpy 
    array,假设模型有多个输入,那么x的门类应当为list,list的要素是对应于各样输入的numpy 
    array。假若模型的各种输入都著名字,则能够流传叁个字典,将输入名与其输入数据对应起来。
  • y:标签,numpy array。借使模型有八个出口,能够流传四个numpy 
    array的list。要是模型的出口拥有名字,则足以流传多个字典,将输有名与其标签对应起来。
  • batch_size:整数,钦命实行梯度下跌时每种batch包罗的样板数。练习时一个batch的样品会被计算叁次梯度下跌,使目的函数优化一步。
  • nb_epoch:整数,练习的轮数,练习多大校会被遍历nb_epoch次。Keras中nb开首的变量均为”number
    of”的意思
  • verbose:日志展现,0为不在标准输出流输出日志音讯,1为出口进程条记录,2为种种epoch输出少年老成行记录
  • callbacks:list,当中的元素是keras.callbacks.Callback的靶子。那几个list中的回调函数将会在教练进程中的适当时机被调用,参谋回调函数
  • validation_split:0~1之间的浮点数,用来钦赐训练集的终将比例数据作为验证集。验证集将不参预练习,并在各类epoch甘休后测量检验的模子的目标,如损失函数、精确度等。注意,validation_split的剪切在shuffle之后,因而生机勃勃旦你的数目笔者是寸步不移的,须要先手工业打乱再内定validation_split,不然或然会合世验证集样品不均匀。
  • validation_data:形式为(X,y)或(X,y,sample_weights卡塔尔国的tuple,是点名的验证集。此参数将覆盖validation_spilt。
  • shuffle:布尔值,表示是或不是在练习进度中各种epoch前随机打乱输入样品的相继。
  • class_weight:字典,将不一样的体系映射为不一致的权值,该参数用来在教练进程中调解损失函数(只好用于练习卡塔尔。该参数在管理非平衡的教练多少(有些类的练习样板数少之又少卡塔 尔(英语:State of Qatar)时,可以使得损失函数对样板数不足的数码进一层关心。
  • sample_weight:权值的numpy 
    array,用于在教练时调度损失函数(仅用于练习卡塔尔国。能够传递叁个1D的与范本等长的向量用于对样板进行1对1的加权,或许在直面时序数据时,传递贰个的样式为(samples,sequence_length卡塔尔国的矩阵来为各个日子步上的样品赋区别的权。这种情景下请明确在编写翻译模型时加多了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦命的epoch伊始练习,在一连以前的教练时有用。

输入数据与规定数量不相称时会抛出错误

fit函数重返一个History的对象,其History.history属性记录了损失函数和其余指标的数值随epoch变化的动静,假设有验证集的话,也暗含了验证集的这一个指标变化情形

1 # 间隔日期大于10天,即day+3大于12天,判断为有停盘,不连续,或者涨跌幅异常(超过10.5%),不能作为训练样本序列, 
2 if int(diff/(24*3600))>12 or abs(raise_value)>10.5:  
3     sample_window = []

4.evaluate,模型评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch总括在少数输入数据上模型的相对误差,其参数有:

  • x:输入数据,与fit相符,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只可以取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数重回叁个测验抽样误差的标量值(假如模型未有其他评价目标卡塔尔,或一个标量的list(尽管模型还会有其余的褒贬指标卡塔 尔(英语:State of Qatar)。model.metrics_names将提交list中种种值的意义。

假诺未有非常表明,以下函数的参数均保持与fit的同名参数相符的含义 
比方未有特出表明,以下函数的verbose参数(假使有卡塔 尔(英语:State of Qatar)均只可以取0或1

 

5.predict 模子预测

predict(self, x, batch_size=32, verbose=0)

 

本函数按batch拿到输入数据对应的输出,其参数有:

函数的再次回到值是预测值的numpy array

三.搭建立模型型

模型检查 on_batch

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)

train_on_batch:本函数在一个batch的数目上海展览中心开二次参数更新,函数重回操练抽样误差的标量值或标量值的list,与evaluate的动静同样。 

test_on_batch:本函数在叁个batch的样品上对模型实行业评比估,函数的回到与evaluate的情形肖似; 
predict_on_batch:本函数在二个batch的样板上对模型进行测验,函数重返模型在三个batch上的前瞻结果

        
这里运用keras深度学习框架对模型举办高效搭建。建构Sequential模型,向在那之中增多LSTM层,设定Dropout为0.2,参预Dense层将其维度聚合为1,激活函数使用relu,损失函数定为交叉熵函数。以前也选拔过守旧的sigmoid作为激活函数,但经试验认为效用不比relu。

_generator

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)
evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)

 

1 model = Sequential()
2 model.add(LSTM(128, input_shape=(window_len,7), return_sequences=False))  # TODO: input_shape=(timesteps ,data_dim)
3 model.add(Dropout(0.2))
4 model.add(Dense(1))
5 model.add(Activation('relu'))
6 model.compile(loss='binary_crossentropy',optimizer='rmsprop',metrics=['accuracy'])

案例风流罗曼蒂克:轻松的单层-全连接互联网

from keras.layers import Input, Dense
from keras.models import Model

# This returns a tensor
inputs = Input(shape=(784,))

# a layer instance is callable on a tensor, and returns a tensor
x = Dense(64, activation='relu')(inputs)
# 输入inputs,输出x
# (inputs)代表输入
x = Dense(64, activation='relu')(x)
# 输入x,输出x
predictions = Dense(10, activation='softmax')(x)
# 输入x,输出分类

# This creates a model that includes
# the Input layer and three Dense layers
model = Model(inputs=inputs, outputs=predictions)
model.compile(optimizer='rmsprop',
              loss='categorical_crossentropy',
              metrics=['accuracy'])
model.fit(data, labels)  # starts training

 

其中: 
能够看出结构与序贯模型完全不平等,当中x = Dense(64,
activation=’relu’)(inputs)中:(input)代表输入;x代表输出 
model = Model(inputs=inputs,
outputs=predictions);该句是函数式模型的经文,能够并且输入五个input,然后输出output三个模型

  模型搭建完结,使用早前得到的数百个锻练样品张开练习,并保留模型。

案例二:录像拍卖

x = Input(shape=(784,))
# This works, and returns the 10-way softmax we defined above.
y = model(x)
# model里面存着权重,然后输入x,输出结果,用来作fine-tuning

# 分类->视频、实时处理
from keras.layers import TimeDistributed

# Input tensor for sequences of 20 timesteps,
# each containing a 784-dimensional vector
input_sequences = Input(shape=(20, 784))
# 20个时间间隔,输入784维度的数据

# This applies our previous model to every timestep in the input sequences.
# the output of the previous model was a 10-way softmax,
# so the output of the layer below will be a sequence of 20 vectors of size 10.
processed_sequences = TimeDistributed(model)(input_sequences)
# Model是已经训练好的

 

其中: 
Model是已经操练好的,未来用来做动员搬迁学习; 
其间还可以透过TimeDistributed来张开实时预测; 
TimeDistributed(model)(input_sequences),input_sequences代表连串输入;model代表已练习的模型

1 hist = model.fit(trainX,trainY,batch_size=1,epochs=50)
2 score = model.evaluate(trainX, trainY, batch_size=10)
3 if os.path.exists('./model/'+file_name[:-5]):
4     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date))  # HDF5 保存模型
5 else:
6     os.mkdir('./model/'+file_name[:-5])
7     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date)) 

案例三:双输入、双模子输出:LSTM 时序预测

此案例很好,能够精晓到Model的精粹在于他的跋扈性,给编写翻译者比很多的低价。

输入: 
情报语言质地;新闻语言质地对应的时日 
输出: 
信息语言材质的前瞻模型;音信语言材质+对适当时候间的预测模型 
home88一必发 6

 

模型大器晚成:只针对新闻语料的LSTM模型

from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model

# Headline input: meant to receive sequences of 100 integers, between 1 and 10000.
# Note that we can name any layer by passing it a "name" argument.
main_input = Input(shape=(100,), dtype='int32', name='main_input')
# 一个100词的BOW序列

# This embedding layer will encode the input sequence
# into a sequence of dense 512-dimensional vectors.
x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
# Embedding层,把100维度再encode成512的句向量,10000指的是词典单词总数


# A LSTM will transform the vector sequence into a single vector,
# containing information about the entire sequence
lstm_out = LSTM(32)(x)
# ? 32什么意思?????????????????????

#然后,我们插入一个额外的损失,使得即使在主损失很高的情况下,LSTM和Embedding层也可以平滑的训练。

auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)
#再然后,我们将LSTM与额外的输入数据串联起来组成输入,送入模型中:
# 模型一:只针对以上的序列做的预测模型

 

四.意义体现

重新整合模型:音讯语言材料+时序

# 模型二:组合模型
auxiliary_input = Input(shape=(5,), name='aux_input')  # 新加入的一个Input,5维度
x = keras.layers.concatenate([lstm_out, auxiliary_input])   # 组合起来,对应起来


# We stack a deep densely-connected network on top
# 组合模型的形式
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
# And finally we add the main logistic regression layer
main_output = Dense(1, activation='sigmoid', name='main_output')(x)


#最后,我们定义整个2输入,2输出的模型:
model = Model(inputs=[main_input, auxiliary_input], outputs=[main_output, auxiliary_output])
#模型定义完毕,下一步编译模型。
#我们给额外的损失赋0.2的权重。我们可以通过关键字参数loss_weights或loss来为不同的输出设置不同的损失函数或权值。
#这两个参数均可为Python的列表或字典。这里我们给loss传递单个损失函数,这个损失函数会被应用于所有输出上。

 

其中:Model(inputs=[main_input, auxiliary_input],
outputs=[main_output, auxiliary_output])是核心, 
Input八个内容,outputs三个模型

# 训练方式一:两个模型一个loss
model.compile(optimizer='rmsprop', loss='binary_crossentropy',
              loss_weights=[1., 0.2])
#编译完成后,我们通过传递训练数据和目标值训练该模型:

model.fit([headline_data, additional_data], [labels, labels],
          epochs=50, batch_size=32)

# 训练方式二:两个模型,两个Loss
#因为我们输入和输出是被命名过的(在定义时传递了“name”参数),我们也可以用下面的方式编译和训练模型:
model.compile(optimizer='rmsprop',
              loss={'main_output': 'binary_crossentropy', 'aux_output': 'binary_crossentropy'},
              loss_weights={'main_output': 1., 'aux_output': 0.2})

# And trained it via:
model.fit({'main_input': headline_data, 'aux_input': additional_data},
          {'main_output': labels, 'aux_output': labels},
          epochs=50, batch_size=32)

 

因为输入三个,输出八个模型,所以能够分为设置分化的模型练习参数

  最早的时候,小编对具有的证券的操练样品聚成堆到一块,练习出贰个大模型(貌似那时有9万四个操练样品,整整编操练练了一天=,=),之后对每一个股票都举办预测,图谋寻找今日天津大学学幅度最高的前5支股票(stock卡塔 尔(阿拉伯语:قطر‎。后来发觉一向做不到……每支股票的操作原理都不平等,使用单个模型不能有效的握住个人股的起降趋向。

案例四:分享层:对应涉及、相同性

一个节点,分成八个分支出去

import keras
from keras.layers import Input, LSTM, Dense
from keras.models import Model

tweet_a = Input(shape=(140, 256))
tweet_b = Input(shape=(140, 256))
#若要对不同的输入共享同一层,就初始化该层一次,然后多次调用它
# 140个单词,每个单词256维度,词向量
# 

# This layer can take as input a matrix
# and will return a vector of size 64
shared_lstm = LSTM(64)
# 返回一个64规模的向量

# When we reuse the same layer instance
# multiple times, the weights of the layer
# are also being reused
# (it is effectively *the same* layer)
encoded_a = shared_lstm(tweet_a)
encoded_b = shared_lstm(tweet_b)

# We can then concatenate the two vectors:
    # 连接两个结果
    # axis=-1?????
merged_vector = keras.layers.concatenate([encoded_a, encoded_b], axis=-1)

# And add a logistic regression on top
predictions = Dense(1, activation='sigmoid')(merged_vector)
# 其中的1 代表什么????

# We define a trainable model linking the
# tweet inputs to the predictions
model = Model(inputs=[tweet_a, tweet_b], outputs=predictions)

model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])
model.fit([data_a, data_b], labels, epochs=10)
# 训练模型,然后预测

 

  之后,作者独立选了华夏软件此人股票(stock卡塔 尔(阿拉伯语:قطر‎(那一个票看起来像庄家主导的这种),对它独立开展分析。使用了一年半的贸易数额作为锻炼集,共有2玖拾贰个演练样品,练习1四十多个epoch。最终练习出模型对测验聚集的五贰十三个测验样品进行表明。预测标称误差如下图。

案例五:收取层节点内容

# 1、单节点
a = Input(shape=(140, 256))
lstm = LSTM(32)
encoded_a = lstm(a)
assert lstm.output == encoded_a
# 抽取获得encoded_a的输出张量

# 2、多节点
a = Input(shape=(140, 256))
b = Input(shape=(140, 256))

lstm = LSTM(32)
encoded_a = lstm(a)
encoded_b = lstm(b)

assert lstm.get_output_at(0) == encoded_a
assert lstm.get_output_at(1) == encoded_b

# 3、图像层节点
# 对于input_shape和output_shape也是一样,如果一个层只有一个节点,
#或所有的节点都有相同的输入或输出shape,
#那么input_shape和output_shape都是没有歧义的,并也只返回一个值。
#但是,例如你把一个相同的Conv2D应用于一个大小为(3,32,32)的数据,
#然后又将其应用于一个(3,64,64)的数据,那么此时该层就具有了多个输入和输出的shape,
#你就需要显式的指定节点的下标,来表明你想取的是哪个了
a = Input(shape=(3, 32, 32))
b = Input(shape=(3, 64, 64))

conv = Conv2D(16, (3, 3), padding='same')
conved_a = conv(a)

# Only one input so far, the following will work:
assert conv.input_shape == (None, 3, 32, 32)

conved_b = conv(b)
# now the `.input_shape` property wouldn't work, but this does:
assert conv.get_input_shape_at(0) == (None, 3, 32, 32)
assert conv.get_input_shape_at(1) == (None, 3, 64, 64)

 

 home88一必发 7

案例六:视觉问答模型

#这个模型将自然语言的问题和图片分别映射为特征向量,
#将二者合并后训练一个logistic回归层,从一系列可能的回答中挑选一个。
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.layers import Input, LSTM, Embedding, Dense
from keras.models import Model, Sequential

# First, let's define a vision model using a Sequential model.
# This model will encode an image into a vector.
vision_model = Sequential()
vision_model.add(Conv2D(64, (3, 3) activation='relu', padding='same', input_shape=(3, 224, 224)))
vision_model.add(Conv2D(64, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(128, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(128, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Flatten())

# Now let's get a tensor with the output of our vision model:
image_input = Input(shape=(3, 224, 224))
encoded_image = vision_model(image_input)

# Next, let's define a language model to encode the question into a vector.
# Each question will be at most 100 word long,
# and we will index words as integers from 1 to 9999.
question_input = Input(shape=(100,), dtype='int32')
embedded_question = Embedding(input_dim=10000, output_dim=256, input_length=100)(question_input)
encoded_question = LSTM(256)(embedded_question)

# Let's concatenate the question vector and the image vector:
merged = keras.layers.concatenate([encoded_question, encoded_image])

# And let's train a logistic regression over 1000 words on top:
output = Dense(1000, activation='softmax')(merged)

# This is our final model:
vqa_model = Model(inputs=[image_input, question_input], outputs=output)

# The next stage would be training this model on actual data.

 

延长风姿浪漫:fine-tuning时如何加载No_top的权重

假若您必要加载权重到分裂的网络布局(某些层相似卡塔 尔(英语:State of Qatar)中,比方fine-tune或transfer-learning,你能够由此层名字来加载模型: 
model.load_weights(‘my_model_weights.h5’, by_name=True) 
例如:

假定原模型为:

    model = Sequential()
    model.add(Dense(2, input_dim=3, name="dense_1"))
    model.add(Dense(3, name="dense_2"))
    ...
    model.save_weights(fname)

# new model
model = Sequential()
model.add(Dense(2, input_dim=3, name="dense_1"))  # will be loaded
model.add(Dense(10, name="new_dense"))  # will not be loaded

# load weights from first model; will only affect the first layer, dense_1.
model.load_weights(fname, by_name=True)

内部前三十八个是操练聚集的样书,大家利用其输入部分开展预测,发掘预测结果贴合拾叁分连贯;后五二十一个是我们测量检验集的样书,小编对其测度效果依旧相比较满足的,暴跌、猛涨基本都有预测到,除了第67到第柒十一个点那一波狂跌预测的不得了。随后作者动用模型举办效仿交易,设定先导开销七万元,在猜度15日后会上升时购买,预测四天后会下落时卖出,均以收盘价为成交价,买入时扣除非凡之2.5的工资。收益曲线如下,深暗蓝线条代表按模型实行交易的纯收入,莲灰线条代表直接有着股票(stock卡塔尔的入账。

home88一必发 8

  能够看来,模型的揣测效果依旧不错的。特别是始于的20七个点,能够相比标准的避开一波回调下落。

  但本人也了解,对模型进行验证的范本数量还是太少,又过了五个月,在附加采撷了18个交易日的数据今后,小编又对该样品进行了测试。

推测测量误差:

 home88一必发 9

由上海体育场地可以看看,尾数十几个交易日的这一波大开间,模型并从没可以预测到。

收益曲线:

 home88一必发 10

  从上海体育地方能够观察,在茶褐方框圈出来的地点,模型数十次估计会有一波开间,但紧跟着又立马预测股票价格要跌,对股票举办了抛售,错过了那三次猛涨的空子;在松石绿方框圈出之处,模型五次在终端做出了纯正的张望,精准抛售,躲过两回猛降。

 

通过股票数量的声明,使用LSTM-TiggoNN来对证券进行预测具有自然的来头,但职能不佳(若是效果好的话我预计也不会分享到互联网,自身闷声发大财啦,哈哈~~~)。

 

[1]R. Akita, A. Yoshihara, T. Matsubara and K. Uehara, “Deep learning
for stock prediction using numerical and textual information,” 2016
IEEE/ACIS 15th International Conference on Computer and Information
Science (ICIS)
, Okayama, 2016, pp. 1-6.     
()

相关文章