优化器optimizer(优化器optimizer函数)

优化器optimizer(优化器optimizer函数)div id module unit notification container hidden div p 还有一个可用来自动执行超参数优化和模型选择过程的开源工具 那就是 Hyperopt strong strong Hyperopt 简单易用 p

大家好,我是讯享网,很高兴认识大家。



 <div id="module-unit-notification-container" hidden=""></div> <p>还有一个可用来自动执行超参数优化和模型选择过程的开源工具,那就是 Hyperopt<strong></strong>。 Hyperopt 简单易用,但谨慎操作才能确保有效使用。 使用 Hyperopt 的主要优势在于它的灵活性,它可以使用超参数优化任何 Python 模型。</p> 

讯享网

如果你使用 Databricks Runtime ML 创建了计算,则已安装 Hyperopt。 要在训练 Python 模型时使用它,应执行以下基本步骤:

  1. 定义一个目标函数来进行最小化。
  2. 定义超参数搜索空间。
  3. 指定搜索算法。
  4. 运行 Hyperopt 函数 fmin()。

目标函数代表了通过超参数优化训练多个模型的主要目的。 通常,目标是尽可能减少训练或验证损失。

在定义函数时,你可以利用任何可以用所选算法进行计算的评估指标。 例如,如果我们使用 scikit-learn 库中的支持向量机分类器,则可以更改正则化参数的值 。 目标是使模型具有最高的准确度。 由于 Hyperopt 想要一个它需要最小化的函数,你可以将目标函数定义为负准确度,这样较低的分数实际上意味着较高的准确度。

在以下示例中,将正则化参数 定义为输入,训练了一个支持向量机分类器模型,计算了准确度,将目标函数定义为负准确度,这是 Hyperopt 将尝试最小化的值。

讯享网

在优化超参数时,需要定义搜索空间。 如果要使用 Hyperopt 的 Bayesian 方法进行抽样,可以使用一组表达式来定义与 Hyperopt 的抽样方法兼容的搜索空间。

下面是一些用于定义搜索空间的表达式的示例:


讯享网

  • :返回你列出的 之一。
  • :返回 [0, 上限] 范围内的一个随机整数。
  • :统一返回一个介于 和 之间的值。
  • :返回一个正态分布的实数值,其中均值为 ,标准差为 。

有关表达式的完整列表,请参阅 Hyperopt 文档。

Hyperopt 在对搜索空间进行抽样时有两个主要选择:

  • :Parzen 估算器树 (TPE),它是一种 Bayesian 方法,根据过去的结果,按迭代方式自适应地选择要浏览的新超参数设置。
  • :随机搜索,这是一个对搜索空间进行抽样的非自适应方法。

最后,要执行 Hyperopt 运行,可以使用函数 。 函数采用以下参数:

  • :目标函数。
  • :搜索空间。
  • :你想要 Hyperopt 使用的搜索算法。
  • :要训练的最大数量。
  • :预生成的超参数设置的数目。 使用 TPE 算法时,这可以节省时间。
  • : 或 对象。 用于单机算法,如 scikit-learn。 用于分布式训练算法,如 MLlib 方法或 Horovod。 当使用 或 Horovod 时,将启用自动化 MLflow 跟踪,并自动在 MLflow 中记录超参数和评估指标。

有关如何配置 和 的详细信息,请参阅此处的 Hyperopt 概念。


小讯
上一篇 2025-05-16 17:55
下一篇 2025-06-15 19:55

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/173405.html