好大一个坑: EF Core 异步读取大字符串字段比同步慢100多倍

  • 时间:
  • 浏览:1
  • 来源:大发uu快3_uu快3概率_大发uu快3概率

这三三五天遇到另一俩个奇怪的什么的什么的问题 ,通过 EF/EF Core 查询数据库速率单位单位奇慢,先是在传统的 ASP.NET 项目中遇到(用的是EF6.0),已经 将该项目迁移至 ASP.NET Core 也是同样的什么的什么的问题 (用的是EF Core 2.2.2)。

什么的什么的问题 触发的条件是所查询的字段中存储了很大的字符串(有500多万个字符),查询耗时竟然要40s左右(对,是40秒),CPU消耗也很高,2核CPU消耗500%-500%左右,而再加 Dapper 则没你这名 什么的什么的问题 。

通过 EF Core 的 Debug 日志跟踪发现,耗时地处在执行完 DbCommand 与 dispose DbDataReader 之间:

2019-02-23 15:46:27.026 [Information] Executed DbCommand ("4"ms) [Parameters=[""], CommandType='Text', CommandTimeout='500']"
2019-02-23 15:47:06.859 [Debug] A data reader was disposed.

通过日志跟踪信息看,很容易会怀疑耗时机会地处在 ADO.NET DataReader 读取数据时,但你这名 怀疑与 Dapper 查询正常矛盾,而且 CPU 消耗高也说明耗时有的是出显在 IO 层面。

已经 在 stackoverflow 上找到了线索 Poor performance when loading entity with large string property using Entity Framework

I had the same issue yesterday. What I did find out is that async operations with Entity Framework is broken or at least very slow. Try using the same operations synchronously

当时看后了你这名 线索,很重不相信,异步竟然会引起你这名 什么的什么的问题 ,有的是默认都使用异步吗?就说 抱着试试看的心理将代码中的 ToListAsync() 改为 ToList() ,结果却你会大吃一惊,多次测试,查询耗时在 5000-5000 ms 之间,快了 5000 多倍。

更新

触发你这名 什么的什么的问题 有 3 个条件:

1)读取的字符串很大

2)使用 DbCommand.ExecuteReaderAsync 异步法律法律依据读取

3)调用 ExecuteReaderAsync 时那末给 behavior 参数传值 CommandBehavior.SequentialAccess

在 Dapper 中那末出显什么的什么的问题 是机会 Dapper 中设置了 CommandBehavior.SequentialAccess ,详见 Dapper 的源代码 SqlMapper.Async.cs#L945

using (var reader = await ExecuteReaderWithFlagsFallbackAsync(cmd, wasClosed, CommandBehavior.SequentialAccess | CommandBehavior.SingleResult, command.CancellationToken).ConfigureAwait(false))
{
    //...
}

EF Core 中会出显你这名 什么的什么的问题 是机会 EF Core 调用的是 ExecuteReaderAsync(CancellationToken cancellationToken) ,那末设置 CommandBehavior ,详见 EF Core 的源代码 RelationalCommand.cs#L292

result = new RelationalDataReader(
    connection,
    dbCommand,
    await dbCommand.ExecuteReaderAsync(cancellationToken),
    commandId,
    Logger);

关于 CommandBehavior.SequentialAccess 详见微软官方文档

Provides a way for the DataReader to handle rows that contain columns with large binary values. Rather than loading the entire row, SequentialAccess enables the DataReader to load data as a stream. You can then use the GetBytes or GetChars method to specify a byte location to start the read operation, and a limited buffer size for the data being returned.