优势:暴露了Keras,没有引进任何新语法。Talos把超参数优化的过程从若干天缩短到若干分钟。
测试1:使用val_acc(验证精确度)作为评估模型表现的指标
发现:
似乎hidden_layers(隐藏层数目)、lr(学习率)、dropout对val_acc的影响较大(负相关性),而正相关性比较强的只有epoch数。
这个任务,我们可得:相对简单的模型表现较好
测试2:通过核密度估计仔细看看dropout。纵轴为精确度,横轴为dropout率。

dropout为0到0.1时,更可能得到较高的验证精确度(纵轴0.9附近),不太可能得到较低的精确度(纵轴0.6附近)
测试3:纵轴为验证精确度,横轴为学习率。


两种损失函数上,都是较低的学习率表现更好
在所有学习率水平上,交叉熵的表现都超过了logcosh,因此在之后的试验中,我们将选择交叉熵作为损失函数。不过,我们仍需要验证一下。因为我们看到的结果可能是过拟合训练集的产物,也可能两者的验证集损失(val_loss)都很大。所以我们进行了简单的回归分析。

回归分析表明,除了少数离散值外,绝大多数损失都聚集在左下角(这正是我们所期望的)。换句话说,训练损失和验证损失都接近零。回归分析打消了我们之前的疑虑。
安装
稳定版本:
pip install talos
每日开发版本:
pip install git+https://github.com/autonomio/talos.git@daily-dev
常用参数:
1、Scan()
x |
用户输入 | 预测功能 |
y |
用户输入 | 预测结果变量 |
params |
用户输入 | 参数字典 |
model |
用户输入 | Keras模型作为一种功能 |
dataset_name |
没有 | 用于实验日志 |
experiment_no |
没有 | 用于实验日志 |
x_val |
没有 | x的验证数据 |
y_val |
没有 | y的验证数据 |
val_split |
0.3 | 验证数据分割比率 |
shuffle |
真正 | 如果数据应该洗牌或不洗牌 |
random_method |
'uniform_mersenne' | 随机使用的方法 |
search_method |
'随机' | 检查排列的顺序 |
reduction_method |
没有 | 使用概率减少的类型 |
reduction_interval |
50 | 应用减少后的排列数 |
reduction_window |
20 | 缩小过程的回顾窗口 |
grid_downsample |
没有 | 浮点数表示随机抽样的分数 |
reduction_threshold |
0.2 | 应用减少的阈值 | <

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/20775.html