【发布时间】:2026-02-17 17:25:02
【问题描述】:
docs = ['非必需消费品、医疗保健和科技是首选的中国股票行业。', “在中国振兴国内消费的政策支持下,非必需消费品仍然具有吸引力。进一步货币和财政刺激的前景应该会强化中国的消费主题。', “在对医疗保健服务和药物的需求增加的背景下,医疗保健部门应该是冠状病毒爆发的主要受益者。”, “随着中国继续从冠状病毒爆发中恢复过来,科技行业应该会受益于对云服务和硬件需求增加的需求。” '中国非必需消费品板块是首选。在我们的评估中,该行业在未来 6-12 个月内的表现可能优于 MSCI 中国指数。']
model = Top2Vec(docs, embedding_model = 'universal-sentence-encoder')
在运行上述命令时,我收到一个错误,在调试时无法清楚地看到错误的根本原因是什么?
错误:
2021-01-19 05:17:08,541 - top2vec - INFO - 用于训练的预处理文档
INFO:top2vec:训练的预处理文档
2021-01-19 05:17:08,562 - top2vec - INFO - 下载通用句子编码器模型
INFO:top2vec:Downloading universal-sentence-encoder 模型
2021-01-19 05:17:13,250 - top2vec - INFO - 创建联合文档/词嵌入
INFO:top2vec:创建联合文档/词嵌入
警告:tensorflow:在最后 6 次调用中,有 5 次调用 触发了 tf.function 回溯。跟踪是昂贵的,过多的跟踪可能是由于(1)在循环中重复创建 @tf.function,(2)传递不同形状的张量,(3)传递 Python 对象而不是张量。对于 (1),请在循环之外定义您的 @tf.function。对于 (2),@tf.function 具有 Experimental_relax_shapes=True 选项,可以放宽可以避免不必要的回溯的参数形状。 (3) 详情请参考https://www.tensorflow.org/guide/function#controlling_retracing和https://www.tensorflow.org/api_docs/python/tf/function。
警告:tensorflow:在最后 6 次调用中,有 5 次调用 触发了 tf.function 回溯。跟踪是昂贵的,过多的跟踪可能是由于(1)在循环中重复创建 @tf.function,(2)传递不同形状的张量,(3)传递 Python 对象而不是张量。对于 (1),请在循环之外定义您的 @tf.function。对于 (2),@tf.function 具有 Experimental_relax_shapes=True 选项,可以放宽可以避免不必要的回溯的参数形状。 (3) 详情请参考https://www.tensorflow.org/guide/function#controlling_retracing和https://www.tensorflow.org/api_docs/python/tf/function。
2021-01-19 05:17:13,548 - top2vec - INFO - 创建文档的低维嵌入
INFO:top2vec:创建文档的低维嵌入
2021-01-19 05:17:15,809 - top2vec - INFO - 查找文档的密集区域
INFO:top2vec:查找文档的密集区域
2021-01-19 05:17:15,823 - top2vec - 信息 - 查找主题
INFO:top2vec:查找主题
ValueError Traceback(最近一次调用最后一次) 在 () ----> 1 个模型 = Top2Vec(docs, embedding_model = 'universal-sentence-encoder')
2 帧 array_function internals> in vstack(*args, **kwargs)
/usr/local/lib/python3.6/dist-packages/numpy/core/shape_base.py 在 vstack(tup) 281 如果不是实例(arrs,列表): 第282章 --> 283 返回 _nx.concatenate(arrs, 0) 284 285
array_function internals> in concatenate(*args, **kwargs)
ValueError: 需要至少一个数组来连接
【问题讨论】:
标签: python arrays concatenation word2vec word-embedding