【发布时间】:2018-03-08 23:14:15
【问题描述】:
我目前正在获取过去两年某个货币对的大量加密小时价格。我已经同时使用 Sidekiq 来处理多个硬币。
问题是当我使用 jsonb 来存储信息时,我怀疑它会导致大的内存泄漏。但我可能错了,我的 Active Record 查询没有优化。
结果是我的 Heroku Workers 不断超过配额并关闭。
def get_2_years_of_btc_data(coin_id)
begin
time_batches = [1451606400,1458810000,1466013600,1473217200,1480420800,1487624400,1494828000,1502031600,1509235200,1516438800,1523642400]
time_batches.each do |time|
sync_hourly_btc_data(coin_id,time)
end
rescue => e
#ScrapeLog.create(error: e.message, process: "Cryptocompare - Sync Coin Prices", resource: "coin", resource_id: coin_id)
end
end
def sync_hourly_btc_data(coin_id,floored_timestamp)
coin = Coin.find(coin_id)
snap = coin.snap
response = HTTParty.get("https://min-api.cryptocompare.com/data/histohour?fsym=#{coin.ticker}&aggregate=1&tsym=BTC&limit=2000&toTs=#{floored_timestamp}")
json = JSON.parse(response.body)
data = json["Data"]
if snap.btc_counter_cache < 1
snap.to_btc = data
else
new_data = data.select {|data| data["time"] > snap.btc_to_ts}
snap.to_btc = snap.to_btc + new_data
end
snap.btc_from_ts = snap.to_btc.first["time"]
snap.btc_to_ts = snap.to_btc.last["time"]
snap.coin.real_price_btc = snap.to_btc.last["close"]
snap.btc_counter_cache = snap.to_btc.size
snap.save
end
Snaps是存储每个硬币价格信息的表,to_btc是存储所有数据的jsonb列。
我需要帮助了解这是否是一个常见的 jsonb 问题,当它变大或我的 Active Record 查询效率低下时。
谢谢!
【问题讨论】:
-
嘿 T。您是否测量过响应返回需要多长时间,以及返回的数据实际有多大?还有,这是BG的工作吗?这个批量大小是 11 个不同的请求,Heroku 警告说所有花费超过 500 毫秒的请求都应该在 BG 作业中。
标签: ruby-on-rails json heroku memory-leaks sidekiq