【发布时间】:2019-12-24 13:01:36
【问题描述】:
尝试将机器学习集成到语音聊天应用程序中。 目前,用户可以说,做两件事 - 根据语音输入接受或拒绝(使用 Apple Speech to Text API 转换为文本) 要接受,输入可以是接受、好的、确认等;要拒绝,输入可以是拒绝、不、不、我不同意等。
我有一个使用 Keras 构建的模型,并从已集成到我的应用程序中的 Tensorflow 模型格式转换为 mlmodel。
模型接受 MultiArray 输入并提供 Array 输出。
一个 JSON 文件用于训练,其中包含用于意图的参数(例如 - 'Accept' 意图将具有 'accept'、'okay'、'confirm' 作为参数)。 创建一个词袋,考虑到所有参数中唯一的小写词,这个大小用于从传递给预测方法的输入字符串创建 MLMultiArray,如
让预测=尝试! model.prediction(input1: mlMultiArray)
这给出了 [(0 到 1), (0 到 1)] 的输出,其中索引 0 处的元素表示接受意图,索引 1 处的元素表示拒绝意图的可能性。
如果 json 文件的参数数量较少,这可以正常工作。例如,当词袋(所有参数中没有唯一词)有 17 个元素时,程序运行良好。 但是,当我添加更多参数并且词袋现在有 36 个元素时,我得到了一个错误 致命错误:“试试!”表达式意外引发错误:错误域 = com.apple.CoreML 代码 = 0“形状 (36) 不在允许形状的枚举集中” UserInfo={NSLocalizedDescription=形状 (36) 不在允许形状的枚举集中}:
使用https://developer.apple.com/documentation/coreml/mlmultiarray/2879232-init这个方法初始化ML MultiArray
【问题讨论】:
标签: swift xcode coreml swift5.2