大数据技术 scala向下转型和减少穷举
沉沙 2018-10-11 来源 : 阅读 1100 评论 0

摘要:本篇教程探讨了大数据技术 scala向下转型和减少穷举,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术 scala向下转型和减少穷举,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<

工作中的问题总结:
问题一:scala 之向下转型
引言:假如在复杂的业务逻辑中,变量的类型不能确认,只能给个接口类型,这样数据类型推导不会错误,但是后面要使用实现类的类型时,你却发现转不过来了?
对于这样的一个问题,scala可以这样解决:
首先建造一个接口,People:

trait People {
  def toData[T](people:People):T
}

这样定义了一个接口,接着我们实现他的实现类Students和Teacher:

class Students(name: String) extends People {
  var level:String="语文"
  
  override def toData[Students](people: People): Students = {
    people.asInstanceOf[Students]
  }

  def work() {
    println("学习")
  }
}
object Students {
  def apply(name: String): Students = {
    new Students(name)
  }
}


class Teacher(name: String, age: Int) extends People {

  var work: String = "hello"
  override def toData[Teacher](people: People): Teacher = {
    people.asInstanceOf[Teacher]
  }

  def teach() {
    println("teaching")
  }
}
object Teacher {
  def apply(name: String, age: Int): Teacher = {
    new Teacher(name, age)
  }
}

这样我们的前奏做完了,接下来就测试向下转型:

object Test {
  def main(args: Array[String]): Unit = {
    val a = ("tom", "1")
    val b = ("jim")
    val people:People = test(a)

    if (people != null) { 
      val peo:Teacher=people.toData[Teacher](people)
      println(peo.work)
      peo.teach()
    }
    
    val peo:People = test(b)

    if (peo != null) { 
      val p:Students=peo.toData[Students](peo)
      println(p.level)
      p.work()
    }

  }

  def test(x: Any): People = {
    val people = x match {
      case (name, age) => Teacher(name.toString(), age.toString().toInt)
      case (name)      => Students(name.toString())
      case _           => null
    }
    people
  }
}

执行结果

hello
teaching
语文
学习

成功转型,这个解决方法是很有用的,工厂生产有很多模型,数据不一样,类型就不一样,但是数据源不确定,所以我们就需要一接口类型,去实现这个接口的子类做为相近数据的类型,这样自动获取对应的数据,是不是很方便、很好用。
问题二:spark Streaming连接kafka
引言:在工作中遇到streaming连接kafka时报错,说找不到topic的末偏移量?
我首先看了看是不是话题没有创建好,用命令接收数据,能收到,说明集群没问题。再测,还是偏移量的问题,这我就犯愁,连接我自己的环境,没问题,这就更蒙了,
第二次尝试:看API,源码手动设置偏移量,尝试一圈之后,问题依然没有解决。
第三次尝试:重新搭环境,结果还是不行
最后,思考我的环境和生产环境的唯一区别就是hosts文件,我将本地的hosts文件配的和生产环境一样,好了。(困扰我两天的问题啊)
总结,应用程序中最好不要填写IP,写映射(而映射和环境必须一致),这个streamingkafkaUtil的类有关。
问题三:生产中减少穷举
引言:在生产环境下面对纷繁的业务处理场景,我们知道要处理很多逻辑代码,其中有个叫枚举(也称穷举),当处理这类事务时,会产生大量的循环执行,而循环是最耗CPU的,大量的迭代计算,可直接拉低计算速度,怎么处理这类问题呢?
对于事务的不定项的选择几率,都会有一定的规律,比如说事件的概率发生,根据概率论的知识,我们可以去统计穷举各项的频率,按其大小依次排列,这样前面的枚举项就可消费大部分数据,剩下的低概率枚举项就会以最小的执行次数执行。
比如说有1000000条数据,枚举项有50个,假如平均25次能找到匹配项,就需要运行25000000次(2.5*10的7次方)
换种思路:假如第一枚举项是是30%,2是25%,3是20%这样前三项就消费750000*3+250000*25=8500000(8.5*10的6次方)
直接降一个数量级的执行次数,当然这些都是假设,是不太准的
但是思路就一样,就是将发生概率高的事件统计优先处理,这既符合生活规律,又符合事务发展的客观规律。
应用场景就太多了,例子:
       例子一:话说网络运营商想分析用户的上网行为分析。他不会将网络上的各种资源都先收集一份,然后再去匹配每个用户的某时的上网行为 
那样做机器也会累的。所以先样本调查,然后分析大部分的用户行为特征,根据样本获取统计资源,然后这样以最小的资源消费最大的数据,剩下的小概率事件。
      例子二:百度搜索词条的建立,也会寻找样本,统计大概率数据精准处理,作为频繁搜索词缓存,让搜索快速而精准,当然那其他的陌生词条利用机器学再处理。每天计算词条的权重,这样以权重排列,这样就会让大概率更加大概率,再次节约速度。
      总而言之,事务的发展规律都是一样的,总会有大概率事件,事物的发展规律都是一样的。符合二八定律。用做小的资源去解决大量数据。    

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程