這幾天在coursela(乙個著名的mooc平台)上報名參加了一門課程:georgia institute of technology開設的machine design。
machine design是一門專業性很強的課程,主要講述了諸如靜力破壞和疲勞破壞理論、常見機械結構的分析,機械系統設計等內容。
分析一下,其實解決起來還是很簡單的:
markdown
文件中加入目錄
markdown
中,要加入目錄,只需要在文件正文前加入[toc]
即可。
這裡通過向文件中寫入字幕稿前先寫入[toc]
的方式解決。
為文字增加標題
為了增加辨識度且便於在文件中閱讀,需要為每段字幕稿在開始的位置加入標題。
這裡通過為獲取到的文字前和後增加對應字串的方式解決。
查詢並替換文件中的換行符\n
。
這裡選擇通過使用python
的replace()
方法將文字中的換行符\n
替換掉,換成空格。
replace()
方法需要輸入2個引數,第乙個引數即舊字串(需要被替換掉的字串),第二個引數即新字串(需要的字串)。
修改後的**:
# 1 迭代讀取字幕稿文字文件中的內容
for n in range(rangew):
f=open(fname,encoding='utf-8')
ftxt = f.read()
# 替換換行符為空格
chtxt = ftxt.replace('\n', ' ')
# 為markdown文件插入標題
addfilename = '#subtitle-' + str(n+1) + '\n' + chtxt
# 2 寫入markdown文件
fmd = open('transcript.md','w+')
# 寫入目錄
fmd.write('[toc]\n')
for t in range(len(text)):
fmd.write(text[t])
# 當前文件內容寫入完成後加入換行符隔開兩段內容
fmd.write('\n')
fmd.close()
**修改後的執行效果:
圖3 修改**後生成文件
圖4 修改**後生成文件(兩字幕稿之間)
對比**修改前後生成的markdown
文件,**修改後的文件顏值增加明顯,十分便於閱讀。
以後工作中再遇到需要進行文字稿的批量彙總,調整一下**就可以嗖的一下完成,可以為自己節省出更多的時間給思考。
spark sql hive批量匯入文字檔案
在很多情況下,會需要將批量生成 如按天生成的記錄 匯入到hive中。針對這種應用場景,進行實驗。首先需要進行檔案目錄的遍歷,借助scala強大的函式式程式設計能力,利用array中的map函式進行操作即可。如函式如下 def loadintohive sc hivecontext,dir strin...
C 實現文字檔案合併
c 實現文字檔案合併 讀取n個文字檔案,把檔案內容合併到乙個文字檔案中。主要用了filestream的readbyte和writebyte方法 class filecombine catch system.exception ex finally 呼叫方法如下 class testcombine 揀...
合併多個文字檔案方法
把多個文字檔案合併的小方法 如何快速合併多個文字 如txt 檔案呢?這個其實很簡單。實驗 建立多個txt文字檔案,如下 其中內容分別為 1 a2 b 3 c4 d 現要把這四個txt檔案合成為乙個 sql 檔案。合併後的效果如下 linux下面其實更為簡單,想想如果把乙個日誌檔案清空,我們一般會怎樣...