很多朋友对于PHP json_decode函数详细解析和json不建议使用boolean不太懂,今天就由小编来为大家分享,希望可以帮助到大家,下面一起来看看吧!
本文目录
PHP json_decode函数详细解析
一、函数简介
1、此函数有四个参数,一般在使用时会用到前两个,具体的参数可以看手册。
2、第一个参数是json格式的字符串,第二个参数是boolean值(false转化成对象,true转化成数组,默认false),如果转化失败返回null。
js编码规范答案
1.嵌入规则
Javascript程序应该尽量放在.js的文件中,需要调用的时候在页面中以<scriptsrc="filename.js">的形式包含进来。Javascript代码若不是该页面专用的,则应尽量避免在页面中直接编写Javascript代码。
2.对齐缩进与换行
a)缩进
在同一系统中应采用同一种缩进标准,本文提倡缩进大小为4个空格。各编译器对Tab键所代替的空白大小定义不同。建议在设置开发环境时,将编辑器里的Tab快捷键重新设置成4个空格。多数编译器提供了此功能。否则建议按4次空格来进行缩进。
b)换行
在以下位置必须换行:
每个独立语句结束后;
if、else、catch、finally、while等关键字前;
运算符处换行时,运算符必须在新行的行首。
对于因为单行长度超过限制时产生的换行,参考行长度中的策略进行分隔。
1).字符串过长截断
每行代码应小于80个字符。若代码较长应尽量换行,换行应选择在操作符和标点符号之后,最好是在分号“;”或逗号“,”之后。下一行代码相对上一行缩进4个空格。这样可以有效防止复制粘贴引起的代码缺失等错误并增强可读性。
按一定长度截断字符串,并使用+运算符进行连接。分隔字符串尽量按语义进行,如不要在一个完整的名词中间断开。特别的,对于HTML片段的拼接,通过缩进,保持和HTML相同的结构:
?
也可使用数组来进行拼接,相对+运算更容易调整缩进:
?
2).三元运算符过长
三元运算符由3部分组成,因此其换行应当根据每个部分的长度不同,形成3种不同的情况:
?
不得出现以下情况:
?
3).过长的逻辑条件组合
当因为较复杂的逻辑条件组合导致80个字符无法满足需求时,应当将每个条件独立一行,逻辑运算符放置在行首进行分隔,或将部分逻辑按逻辑组合进行分隔。最终将右括号)与左大括号{放在独立一行,保证与if内语句块能容易视觉辨识。如:
?
4).过长的JSON和数组
如果对象属性较多导致每个属性一行占用空间过大,可以按语义或逻辑进行分组的组织,如:
?
通过5个一组的分组,将每一行控制在合理的范围内,并且按逻辑进行了切分。对于项目较多的数组,也可以采用相同的方法,如:
?
?
5).return语句
return如果用表达式的执行作为返回值,请把表达式和return放在同一行中,以免换行符被误解析为语句的结束而引起返回错误。return关键字后若没有返回表达式,则返回undefined。构造器的默认返回值为this。
示例:
3.命名
命名的方法通常有以下几类:
a).命名法说明
1).camel命名法,形如thisIsAnApple
2).pascal命名法,形如ThisIsAnApple
3).下划线命名法,形如this_is_an_apple·
4).中划线命名法,形如this-is-an-apple
根据不同类型的内容,必须严格采用如下的命名法:
b).变量名:必须使用camel命名法
c).参数名:必须使用camel命名法
d).函数名:必须使用camel命名法
e).方法/属性:必须使用camel命名法
f).私有(保护)成员:必须以下划线_开头
g).常量名:必须使用全部大写的下划线命名法,如IS_DEBUG_ENABLED
h).类名:必须使用pascal命名法
i).枚举名:必须使用pascal命名法
j).枚举的属性:必须使用全部大写的下划线命名法
k).命名空间:必须使用camel命名法
l).语义:命名同时还需要关注语义,如:
变量名应当使用名词;
boolean类型的应当使用is、has等起头,表示其类型;·
函数名应当用动宾短语;
类名应当用名词。
4.注释
注释要尽量简单,清晰明了。着重注释的意思,对不太直观的部分进行注解:
?
(当然这种直接定义一堆全局变量的做法不推荐)
此外,JavaScript的注释有两种"//"和"/*....*/",建议"//"用作代码行注释,"/*....*/"形式用作对整个代码段的注销,或较正式的声明中,如函数参数、功能、文件功能等的描述中:
?
另:复制粘贴应注意注释是否与代码对应。
5.声明
1).变量的声明
尽管JavaScript语言并不要求在变量使用前先对变量进行声明。但我们还是应该养成这个好习惯。这样可以比较容易的检测出那些未经声明的变量,避免其变为隐藏的全局变量,造成隐患。
在函数的开始应先用var关键字声明函数中要使用的局部变量,注释变量的功能及代表的含义,且应以字母顺序排序。每个变量单独占一行,以便添加注释。这是因为JavaScript中只有函数的{}表明作用域,用var关键字声明的局部变量只在函数内有效,而未经var声明的变量则被视为全局变量。示例:
?
用var声明过的变量valueA和没有声明的变量valueB是有区别的。特别需要注意的是,在函数内部用var声明的变量为局部变量,这样可以有效地避免因局部变量和全局变量同名而产生的错误。
2).函数的声明
函数也应在调用前进行声明,内部函数应在var声明内部变量的语句之后声明,可以清晰地表明内部变量和内部函数的作用域。
此外,函数名紧接左括号'('之间,而右括号')'和后面的'{'之间要有个空格,以清楚地显示函数名以其参数部分,和函数体的开始。若函数为匿名/无名函数,则function关键字和左括号'('之间要留空格,否则可能误认为该函数的函数名为function。
内部函数声明示例:
?
从上例的输出可以看出,inF()函数仅在outF()函数的内部生效,局部变量innerA对内部函数的作用域生效。这样的编码方式使得变量和函数的作用域变得清晰。
spark可以定义方法吗
spark可以定义包括new类,uadf类,mongodb类,scala类的方法。
有时候看到new类().{方法定义}.方法这种怪异的代码,是匿名内部类的用法。
publicclasspractice{
publicstaticvoidmain(String[]args){
flatMap(newFlatMapFunction(){
@Override
publicvoidcall(){
System.out.println("spark接口就是这么调用的");
}
});
}
staticvoidflatMap(FlatMapFunctiontf){
tf.call();
}
}
interfaceFlatMapFunction{
voidcall();
}
要使用接口,就必须实现接口的方法再调用方法。
匿名内部类语法,允许我们不需要单独定义接口,而是在main方法中来实现这个过程。这使得接口实现的修改像if和for一样随意了,比如spark中的一些接口的重载方法。
所谓“内部”是指在方法内调用,”匿名”是指没有给接口的实现类具体命名。
再看看spark的java版本算子,就是用到了匿名内部类,对于没有接触过匿名内部类的人,一定搞得云里雾里。
publicclassFlatMapOperator{
publicstaticvoidmain(String[]args){
SparkConfconf=newSparkConf().setMaster("local").setAppName("flatmap");
JavaSparkContextsc=newJavaSparkContext(conf);
List<String>list=Arrays.asList("w11","w22","w33","w44");
JavaRDD<String>listRdd=sc.parallelize(list);
JavaRDD<String>result=listRdd.flatMap(newFlatMapFunction<String,String>(){
@Override
publicIterator<String>call(Strings)throwsException{
returnArrays.asList(s.split("")).iterator();
}
});
result.foreach(newVoidFunction<String>(){
@Override
publicvoidcall(Strings)throwsException{
System.err.println(s);
}
});
}
}
FlatMapFunction是内部匿名类的声明,<String,String>是接口的模板,call是重载的接口方法。
/*
user.json数据
{"id":1001,"name":"foo","sex":"man","age":20}
{"id":1002,"name":"bar","sex":"man","age":24}
{"id":1003,"name":"baz","sex":"man","age":18}
{"id":1004,"name":"foo1","sex":"woman","age":17}
{"id":1005,"name":"bar2","sex":"woman","age":19}
{"id":1006,"name":"baz3","sex":"woman","age":20}
*/
objectSparkUDAFDemo{
defmain(args:Array[String]):Unit={
valspark=SparkSession.builder().master("local[*]").appName("UDAF").getOrCreate()
importspark.implicits._
valdf:DataFrame=spark.read.json("in/user.json")
//创建并注册自定义UDAF函数
valfunction=newMyAgeAvgFunction
spark.udf.register("myAvgAge",function)
//创建视图
df.createTempView("userinfo")
//查询男女平均年龄
valdf2:DataFrame=spark.sql("selectsex,myAvgAge(age)fromuserinfogroupbysex")
df2.show()
}
}
//实现UDAF类
//实现的功能是对传入的数值进行累加,并且计数传入的个数,最后相除得到平均数
classMyAgeAvgFunctionextendsUserDefinedAggregateFunction{
//聚合函数的输入数据结构
overridedefinputSchema:StructType={
newStructType().add(StructField("age",LongType))
}
//缓存区数据结构
overridedefbufferSchema:StructType={
newStructType().add(StructField("sum",LongType)).add(StructField("count",LongType))
}
//聚合函数返回值数据结构
overridedefdataType:DataType=DoubleType
//聚合函数是否是幂等的,即相同输入是否能得到相同输出
overridedefdeterministic:Boolean=true
//设定默认值
overridedefinitialize(buffer:MutableAggregationBuffer):Unit={
//sum
buffer(0)=0L
//count
buffer(1)=0L
}
//给聚合函数传入一条新数据时所需要进行的操作
overridedefupdate(buffer:MutableAggregationBuffer,input:Row):Unit={
//将传入的数据进行累加
buffer(0)=buffer.getLong(0)+input.getLong(0)
//每传入一次计数加一
buffer(1)=buffer.getLong(1)+1
}
//合并聚合函数的缓冲区(不同分区)
overridedefmerge(buffer1:MutableAggregationBuffer,buffer2:Row):Unit={
//不同分区的数据进行累加
buffer1(0)=buffer1.getLong(0)+buffer2.getLong(0)
buffer1(1)=buffer1.getLong(1)+buffer2.getLong(1)
}
//计算最终结果
overridedefevaluate(buffer:Row):Any={
//将sum/count的得到平均数
buffer.getLong(0).toDouble/buffer.getLong(1)
}
}。
好了,文章到此结束,希望可以帮助到大家。