当前位置:首页 > 开发 > 开源软件 > 正文

【Spark九十一】Spark Streaming整合Kafka一些值得关注的问题

发表于: 2015-04-03   作者:bit1129   来源:转载   浏览:
摘要: 包括Spark Streaming在内的实时计算数据可靠性指的是三种级别: 1. At most once,数据最多只能接受一次,有可能接收不到 2. At least once, 数据至少接受一次,有可能重复接收 3. Exactly once  数据保证被处理并且只被处理一次,   具体的多读几遍http://spark.apache.org/docs/lates

包括Spark Streaming在内的实时计算数据可靠性指的是三种级别:

1. At most once,数据最多只能接受一次,有可能接收不到

2. At least once, 数据至少接受一次,有可能重复接收

3. Exactly once  数据保证被处理并且只被处理一次,

 

具体的多读几遍http://spark.apache.org/docs/latest/streaming-kafka-integration.html吧,实在不想总结整理了

【Spark九十一】Spark Streaming整合Kafka一些值得关注的问题

  • 0

    开心

    开心

  • 0

    板砖

    板砖

  • 0

    感动

    感动

  • 0

    有用

    有用

  • 0

    疑问

    疑问

  • 0

    难过

    难过

  • 0

    无聊

    无聊

  • 0

    震惊

    震惊

版权所有 IT知识库 CopyRight © 2009-2015 IT知识库 IT610.com , All Rights Reserved. 京ICP备09083238号