【发布时间】:2021-02-27 22:16:28
【问题描述】:
我正在尝试使用 AWS SageMaker 中的 k-means 算法创建无监督机器学习模型。调用 kmeans 预测器预测方法时,我收到 413 Request Entity Too Large 错误。是什么导致了这样的错误?我进行了搜索,大多数回复都谈到了不适用于我的案例的 Elastic Beanstalk 和 nginx 设置。
相关代码和错误可以在下面看到,我的整个 Jupyter Notebook 可以在 (https://github.com/bgaber/machine-learning-recommendation-engine-with-aws-sagemaker/blob/main/imdb-movie-recommendation.ipynb) 找到。完整的错误可以在 Jupyter notebook 的底部看到。我查看了 CloudWatch Logs,但它没有提供更多具体信息。
scaler=MinMaxScaler()
df_scaled=pd.DataFrame(scaler.fit_transform(df))
df_scaled.columns=df.columns
df_scaled.index=df.index
train_data = df_scaled.values.astype('float32')
role = get_execution_role()
bucket_name = 'bg-sagemaker-bucket'
num_clusters = 15
kmeans = KMeans(role=role,
train_instance_count=1,
train_instance_type='ml.c4.xlarge',
output_path='s3://'+ bucket_name +'/kmeans-project/',
k=num_clusters)
kmeans.fit(kmeans.record_set(train_data))
kmeans_predictor = kmeans.deploy(initial_instance_count=1,
instance_type='ml.t2.medium')
result=kmeans_predictor.predict(train_data)
Error:
ModelError: An error occurred (ModelError) when calling the InvokeEndpoint operation: Received client error (413) from model with message "
413 Request Entity Too Large
Request Entity Too Large
The data value transmitted exceeds the capacity limit.
【问题讨论】:
-
你有没有找到这个兄弟的任何东西,得到同样的错误。
-
是的,我确实得到了答案,我将在下面发布解决方案。
标签: amazon-web-services machine-learning k-means amazon-sagemaker