У меня есть лямбда-функция, использующая узел 12.
Мне нужно добавить новое подключение к базе данных Redis, размещенной в AWS ElastiCache.
Оба находятся в одном частном VPC, и группы/подсети безопасности настроены правильно.
Решение:
globals.js:
const redis = require('redis');
const redisClient = redis.createClient(
`redis://${process.env.REDIS_HOST}:${process.env.REDIS_PORT}/${process.env.REDIS_DB}`,
);
redisClient.on('error', (err) => {
console.log('REDIS CLIENT ERROR:' + err);
});
module.exports.globals = {
REDIS: require('../helpers/redis')(redisClient),
};
index.js (внешний обработчик):
const { globals } = require('./config/globals');
global.app = globals;
const lambda_handler = (event, context, callback) => { ... }
exports.handler = lambda_handler;
helpers/redis/index.js:
const get = require('./get');
module.exports = (redisClient) => {
return {
get: get(redisClient)
};
};
helpers/redis/get.js:
module.exports = (redisClient) => {
return (key, cb) => {
redisClient.get(key, (err, reply) => {
if (err) {
cb(err);
} else {
cb(null, reply);
}
});
};
};
Вызов функции:
app.REDIS.get(redisKey, (err, reply) => {
console.log(`REDIS GET: ${err} ${reply}`);
});
Проблема: При увеличении времени ожидания лямбда до значения, превышающего время ожидания Redis, я получаю эту ошибку:
ОШИБКА КЛИЕНТА REDIS:Ошибка: подключение Redis к ... не удалось - время ожидания подключения ...
Дополнение:
Я пробовал выходить/закрывать соединение после каждой транзакции:
module.exports = (redisClient) => {
return (cb) => {
redisClient.quit((err, reply) => {
if (err) {
cb(err);
} else {
cb(null, reply);
}
});
};
};
app.REDIS.get(redisKey, (err, reply) => {
console.log(`REDIS GET: ${err} ${reply}`);
if (err) {
cb(err);
} else {
if (reply) {
app.REDIS.quit(() => {
cb()
});
}
}
})
Ошибка:
REDIS GET: AbortError: GET не может быть обработан. Соединение уже закрыто.
Дополнительные Примечания:
- Я должен использовать обратные вызовы, вот почему я передаю их в приведенных выше примерах
- Я использую
"redis": "^3.0.2"
- Это не проблема конфигурации, так как к кэшу обращались сотни раз за небольшой промежуток времени, но затем он начал выдавать ошибки тайм-аута.
- Все работает нормально локально