【发布时间】:2018-03-03 12:14:59
【问题描述】:
我正在尝试使用h2o steam(在本地主机上运行)来部署模型。从h2o flow导入模型后,点击项目"models"部分中的"deploy model"选项,填写结果对话框,点击“部署”按钮,显示如下信息:
起初我以为是因为我可能需要自己启动服务构建器,所以我按照文档here 启动它,但仍然遇到同样的错误。任何建议,将不胜感激。谢谢:)
【问题讨论】:
标签: h2o
我正在尝试使用h2o steam(在本地主机上运行)来部署模型。从h2o flow导入模型后,点击项目"models"部分中的"deploy model"选项,填写结果对话框,点击“部署”按钮,显示如下信息:
起初我以为是因为我可能需要自己启动服务构建器,所以我按照文档here 启动它,但仍然遇到同样的错误。任何建议,将不胜感激。谢谢:)
【问题讨论】:
标签: h2o
看着here,似乎我需要“覆盖”某种默认浏览器限制来访问 localhost:8080(这是我假设steam 试图启动服务构建器的方式(我不不太了解网络相关的东西))。我通过使用以下命令启动steam 解决了这个问题:
$ ./steam serve master --prediction-service-host=localhost --prediction-service-port-range=12345:22345
端口是 (1025, 65535) 之间的任意范围,我通过对 steam 源 code 的 a 页进行字词搜索获得(截至发帖日期的第 182 行)。
这样做可以让我通过steam 对话框部署模型,而不会出现任何错误消息。同样,我对网络相关的东西了解不多,所以如果有人有更好的方法来解决这个问题(即允许访问 localhost:8080),请发表或评论。谢谢。
【讨论】:
只需通过在 shell 中执行以下命令来确保 jetty HTTP 服务器在本地运行:
java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war
【讨论】: