printf("級數的前n項和為:%f \n",sum)
}}測試截圖:
//圓形
class circle(point: point,r:double) extends shape(point: point) with
drawable
//重寫,列印
override def draw(): unit =
//重寫,移動
override def moveto(point2: point): unit =}//
直線class line(point: point, point1: point)extends shape(point: point) with
drawable
//重寫,列印
override def draw(): unit =
//重寫,移動
override def moveto(point2: point): unit =
}object moni
}測試結果:
獲取第一行中的課程名
val allstudents = originaldata.tail //
去除第一行剩下的資料
val coursenum =coursenames.length
//統計函式,引數為需要常用統計的行
//用到了外部變數 coursenum,屬於閉包函式
def statistc(lines:list[array[string]])=
(temp.sum,temp.min,temp.max)
}) map //
最後乙個 map 對 for 的結果進行修改,將總分轉為平均分}//
輸出結果函式
def printresult(theresult:seq[(double,double,double)])%-10s$%5.2f$%8.2f$%8.2f")
} }//
分別呼叫兩個函式統計全體學生並輸出結果
val allresult =statistc(allstudents)
println("course **erage min max")
printresult(allresult)
//按性別劃分為兩個容器
val (malelines,femalelines) =allstudents partition //
分別呼叫兩個函式統計男學生並輸出結果
val maleresult =statistc(malelines)
println("course **erage min max")
printresult(maleresult)
//分別呼叫兩個函式統計男學生並輸出結果
val femaleresult =statistc(femalelines)
println("course **erage min max")
printresult(femaleresult)
} }測試截圖:
2020寒假學習記錄(9) spark實驗三
實驗3 spark讀取檔案系統的資料 1.在spark shell中讀取linux系統本地檔案 home hadoop test.txt 然後統計出檔案的行數 2.在spark shell中讀取hdfs系統檔案 user hadoop test.txt 如果該檔案不存在,請先建立 然後,統計出檔案的...
spark實驗總結
4,5實驗的問題在於spark儲存和讀取json的時候列名容易不是本來需要的欄位名而是c1,c2這樣的列名,解決辦法是不要用建議讀取方法而要指定讀取表頭。不用spark.read csv 而是 spark.read.format json option header true load hdfs n...
寒假打卡2
猜數字遊戲的提示 樣例輸入 41 3 5 5 1 1 2 3 4 3 3 5 6 5 5 1 0 0 0 0 101 2 2 2 4 5 6 6 6 9 1 2 3 4 5 6 7 8 9 1 1 1 2 2 3 3 4 4 5 5 0 0 0 0 0 0 0 0 0 0 0樣例輸出 game 1 ...