当前位置: 首页 > news >正文

Kafka命令行的使用/Spark-Streaming核心编程(二)

Kafka命令行的使用

创建topic

kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --topic test1 --partitions 3 --replication-factor 3

分区数量,副本数量,都是必须的。

数据的形式:

主题名称-分区编号。

在Kafka的数据目录下查看。

设定副本数量,不能大于broker的数量。

2.2查看所有的topic

kafka-topics.sh --list --zookeeper node01:2181,node02:2181,node03:2181

2.3查看某个topic的详细信息

kafka-topics.sh --describe --zookeeper node01:2181,node02:2181,node03:2181 --topic test1

ISR: In-Sync Replicas   可以提供服务的副本。

AR = ISR + OSR

2.4删除topic

kafka-topics.sh --delete --zookeeper node01:2181,node02:2181,node03:2181 --topic test1

2.5生产数据

kafka-console-producer.sh:

指定broker

指定topic

写数据的命令:

kafka-console-producer.sh --broker-list node01:9092,node02:9092,node03:9092 --topic test1

Spark-Streaming核心编程(二)

  1. 需求:通过 SparkStreaming 从 Kafka 读取数据,并将读取过来的数据做简单计算,最终打印到控制台。
  2. 导入依赖

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming-kafka-0-10_2.12</artifactId>
    <version>3.0.0</version>
</dependency>

  1. 编写代码

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.kafka.clients.consumer.ConsumerRecord
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.kafka010._
import org.apache.kafka.clients.consumer.ConsumerConfig
import org.apache.spark.streaming.dstream.{DStream, InputDStream}

object DirectAPI {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("direct")

    val ssc = new StreamingContext(sparkConf, Seconds(3))

    // 定义 Kafka 相关参数
    val kafkaPara: Map[String, Object] = Map[String, Object](
      ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "node01:9092,node02:9092,node03:9092",
      ConsumerConfig.GROUP_ID_CONFIG -> "kafka",
      "key.deserializer" -> classOf[StringDeserializer],
      "value.deserializer" -> classOf[StringDeserializer]
    )

    // 通过读取 Kafka 数据,创建 DStream
    val kafkaDStream: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String](
      ssc,
      LocationStrategies.PreferConsistent,
      ConsumerStrategies.Subscribe[String, String](Set("kafka"), kafkaPara)
    )

    // 提取出数据中的 value 部分
    val valueDStream: DStream[String] = kafkaDStream.map(record => record.value())

    // wordCount 计算逻辑
    valueDStream.flatMap(_.split(" "))
      .map((_, 1))
      .reduceByKey(_ + _)
      .print()

    ssc.start()
    ssc.awaitTermination()
  }
}

  1. 开启Kafka集群

  1. 开启Kafka生产者,产生数据

kafka-console-producer.sh --broker-list node01:9092,node02:9092,node03:9092 --topic kafka

  1. 运行程序,接收Kafka生产的数据并进行相应处理

8)查看消费进度

kafka-consumer-groups.sh --describe --bootstrap-server node01:9092,node02:9092,node03:9092 --group kafka

相关文章:

  • MCP协议最新进展分析报告
  • 产品经理对于电商接口的梳理||电商接口文档梳理与接入
  • 【Axure教程】表格嵌套卡片
  • Axure复选框组件的深度定制:实现自定义大小、颜色与全选功能
  • NestJS 统一异常处理 + 日志追踪链路设计
  • MySQL数据库基本操作-DQL-基本查询
  • 从低星到4.5+:ASO优化如何重塑Google Play评分与用户信任
  • 【网络应用程序设计】实验四:物联网监控系统
  • Spring Cloud Gateway配置双向SSL认证(完整指南)
  • 算法题(133):二维差分
  • 银河麒麟(内核CentOS8)安装rbenv、ruby2.6.5和rails5.2.6
  • java—12 kafka
  • [特殊字符][特殊字符] HarmonyOS相关实现原理聊聊![特殊字符][特殊字符]
  • BY免费空间去掉?i=1
  • 使用eclipse将原有tomcat插件工程调整为的Dynamic Web Module工程(保姆级教程)
  • 原生微信小程序,canvas生成凭证,保存到手机
  • 数据结构-选择排序(Python)
  • 配置RSUniVLM环境(自用)
  • 多模态大模型 Qwen2.5-VL 的学习之旅
  • 无标注文本的行业划分(行业分类)算法 —— 无监督或自监督学习
  • 苏炳添任暨南大学体育学院院长
  • 网络达人“拿”别人的视频为自己带货赚佣金,法院判决赔偿1.4万元
  • 最新研究挑战男性主导说:雌性倭黑猩猩联盟对付雄性攻击,获得主导地位
  • AI翻译技术已走向大规模商用,应用场景覆盖多个关键领域
  • 昆明一小区电梯突然从40楼降到负4楼,回应:临时断电引起
  • 第四届全民阅读大会在太原举办,李书磊出席并讲话