具體地說,
在複雜的實際場域,
比如說教學,
發展專長需要十年的刻意練習。
~ 羅伯特.馬扎諾 ~
傳統的課堂教學研究大多是透過教師課堂實地教學,由科組夥伴和教研員等觀課者從旁觀察、記錄,課後再依據這些記錄與授課教師展開交流和研討,指出教學上有待改進的環節,做為未來教學改進的參考。
從經驗和結果來看,這種常用的教研形式顯然效能有限,否則經過各校的定時教研和多到數不清的教學研討活動,應該大多數課堂都是效果好、成果棒的好課,但事實卻遠非如此。
原因何在?主要有三,一是教學是每天的日常,教研活動則相對較少,對於教研課教師通常會精心備課,有些甚至還會事先和學生一起預演,已經沒有常態課堂的樣貌;二是每一個觀課者對課堂的記憶常有偏差,甚至混淆,研討時和教學者的印象並不一致,容易導致各說各話,難以聚焦;三是基於經驗的教研並不可靠,師傅老師或教研員通常是將自己對於教育理論的掌握、教學方法的理解、教學過程的觀察記錄,結合個人經驗給出相應的改進意見,但大數據與人工智慧專家吳軍博士就說:「日常的很多感覺與數據給出的結論是相反的,如果不用數據說話,我們成功的概率就會小很多」。
這絕非削弱教研員價值!當AI成為智能教研伙伴,傳統角色正進化為「數據解讀師」。在數智化課堂中,教師將獲得三重循證支持:
- 教學行為鏡像:多模態AI建構課堂全息記錄。
- 決策輔助引擎:秒級生成S-T/FIAS等師生口語互動診斷報告。
- 成長度量衡:追蹤「語速變異值」、「學生參與度」等微觀指標。
本文透過P老師的三週實證案例,揭開如何藉AI驅動:
- 將模糊教學感知轉化為精準數據。
- 把經驗傳承升級為循證迭代。
- 讓專業成長進入可視化進程。
構建課堂教學行為大數據
當資訊科技融入教學之後,課堂教學的內容就從傳統的只包含師生口語互動,增添了加入使用數位工具操作全過程。
隨著資訊科技逐漸深入教學環境,多數學校都設置了至少一間影音錄播教室,專門用作教師錄課教研之用,它可以完整記錄教學過程中師生說的話語、動作、板書等內容。在《課堂記錄是教師專業成長的百寶盒》一文介紹過以數據形式保存教學中教師和學生操作硬體設備和軟體功能的全過程。通過時間軸將二者結合,就能構建出一節完整包含師生口語和科技互動的課堂教學行為數據,保存完整的課堂記錄。
課堂師生互動口語分析技術
教師在錄播教室錄下來的教學影片,本意是讓授課者在課後可以隨時回看,或教研時能重現課堂當時景象。但絕大多數授課者限於時間因素,在錄課之後幾乎很少回頭檢視自己的教學過程,教研時也僅能透過快進和倒轉來找到所需的片段,相當費時。
為了提高教學回溯的客觀性和診斷性,上世紀60年代和80年代分別出現了兩種不同的針對課堂上師生口語互動與行為分析的課堂觀察法,分別是美國內德.佛蘭德斯(Ned Flanders)教授提出的佛蘭德斯互動分析系統(Flanders Interactive Analysis System, FIAS),以及日本藤田廣一(Fujita Hirokazu)和吉本英夫(Yoshimoto Hideo)教授提出的S-T(Student-Teacher)分析法。
這兩種課堂分析技術都是採用觀察、編碼的方式記錄課堂上發生的行為,主要針對師生的口語對話來進行分析。其目的都是將長時間的課堂影音轉換成易於理解和比較的統計數據與圖形。
S-T分析法
在S-T分析法中,觀察員每30秒鐘記錄一次課堂上的教師行為(說話)和學生行為,若是教師行為記為T,學生記為S。另有一種優化的方法將師生正在交互對話記為D。以一節40分鐘的課堂為例,觀察者會記下80個S、T、D的連續標記。接著按順序在座標軸上,T標記畫一小段(30秒鐘長度)水平線段,S標記則畫一段垂直線段,D標記則畫45度角的斜線,如下圖所示,綠色折線就是根據D-T-D-D-D-D-T-D-S-S-S-S-S-……標記順序畫出來的S-T圖。
S-T圖
當課堂標記中發生師生間的行為轉換,例如T-S、D-T、S-T、S-D、D-S、T-D等就記為一次行為轉換,計算行為轉換次數的占比得到Ch(Change Rate of Behavior),再計算全部標記中教師行為T次數的占比得到Rt(Teacher Occupation Rate),如此得到Rt-Ch值。橫軸為Rt值,縱軸為Ch,就能畫出如下的Rt-Ch圖。Rt-Ch圖劃分為5區(不含D標記的則通常分為4區),將課堂類型分為練習、對話、平衡、模塊、講授等5種不同類型,根據Rt和Ch值的相交點可以判定一節課的課堂類型,如下圖所示。
Rt-Ch圖
S-T分析法的優點是簡便、直觀,容易實施,能促進教師的教學反思。一般而言,若是S-T折線斜率在45°左右,表示這是一節平衡型的課堂,師生占用的課堂時間較為平均。S-T圖搭配Rt-Ch圖還能將課堂類型再進一步細分,教師便能對照實施的課堂模式和原先的教學設計是否產生落差,深入進行教學反思。
佛蘭德斯互動分析系統FIAS
FIAS和S-T法一樣,也是由觀察員記錄課堂上師生的口語互動,但記錄與分析的方法則要複雜得多。FIAS將教師語言行為分成兩大類、7個不同編碼,加上學生語言行為2個編碼和無法分辨師生行為“沉寂或混亂”,一共10個編碼,如下表所示。
FIAS編碼對照表
觀察員將課堂上的師生行為每3秒記錄編號,比如教師在10秒鐘的時間對學生提問,然後點名一個學生應答,學生回答花了8秒鐘時間,老師聽完後接受他的觀點,接著給予表揚,記錄下來的編碼依序為448832。課堂的1分鐘會記錄20個編碼,一節課40分鐘總共有800個編碼,將它們填入觀察記錄表。
FIAS觀察記錄表
接下來可以將這些記錄做成10x10的分析矩陣,矩陣的行和列都是由那10個編碼組成。觀察表中每2個編碼編成一個座標,例如上表記錄下來的座標就是(5,5)(5,5)(5,5)(5,4)(4,4)(4,8)(8,8)(8,3)(3,2)……。得到座標後就可以在分析矩陣中劃記,最終得到一節課的分析矩陣。在這個分析矩陣中就可以進行各種變量的統計,例如1-4行次數總計200次,一節課總次數800次,就可以得到教師間接影響占比為25%,5-7次總計300次,計算得到教師直接影響占比37.5%,兩者合計教師課堂時間占比為25%+37.5%,得到52.5%,還可得到教師間接影響與直接影響比例為66.7%。依照各分析變量的計算公式得出數值後,可以畫出如下的佛蘭德斯變量分析圖。
佛蘭德斯變量分析圖
FIAS的優點是可以對師生對話內容進行深入分析,且由於多達10個行為編碼,使得課堂觀察較為客觀並具有診斷性,但其缺點也很明顯,就是操作複雜,且對觀察和評價者有較高的要求。由於每3秒記錄一次編碼和繁複的矩陣運算,使得佛蘭德斯分析法幾乎不可能在課堂結束時就能產出分析結果,通常都是先錄製教學過程,課後再由專業的觀察人員根據錄影進行編碼和建立分析矩陣,然後才能開展細部的變量分析。正因如此,FIAS大多只用在課例的教學研究,散見於一些學術論文中。
一個教學改進的實際案例
隨著人工智慧逐漸成熟和普及,語音和影像識別技術已有相當高的準確性,課堂結束之後,包括複雜的FIAS都能在幾分鐘內得到精確的分析結果,使得S-T和FIAS在AI加持下,正式走入教學實踐,為教師教研建立循證研究的新樣貌。
多模态AI技术可多面向解析课堂教学
P老師是一位小學四年級數學老師,為了提高自己的教學質量,她連續3週都進行了課堂教學的音視頻錄製,根據AI提供的分析數據與建議,於下一次課中針對性地改進缺失。
下圖是P老師這3次課的S-T和Rt-Ch圖。從S-T圖的變化可以看出,P老師的課堂是師生互動的課堂,老師在課堂上沒有長時間講述的情形,有的是課堂上安排了一段一段的學生活動時間,特別在第3次課上,因為這節是一節練習課,從Rt-Ch圖中也可看出相較前兩節是平衡偏模塊的課堂,第3節則是平衡偏模塊與練習的課堂類型。此外從S-T折線的斜率變化可以看出,P老師的課堂逐漸增加了學生活動的時間,使得斜率越來越大於45°。
P老師3次課S-T圖和Rt-Ch圖
下表是3次課的佛蘭德斯分析和AI語音識別數據,從中也可看出P老師用心地根據這些AI分析針對性改進自己的課堂教學。首先看表格中的藍色部分,老師在語速、資訊密度、穩定狀態區和學生穩定狀態區等數據,3次課都呈現地比較穩定。
P老師3次課AI分析
其次表格中的紅色格子是老師在第1次課後認為自己必須進一步優化的部分,分別是教師話語比例、學生話語比例、“這個”和“所以”這兩個口頭禪。5/8的課上老師發現自己的話語比例幾乎達到學生的2倍,有意識地調整後在第3次課可以看到老師放手給學生,自己說得更少,達到了學生占用時間多於教師的課堂樣貌。
綠色格子數據是老師在第2次課後發現課堂數據變差,在第3次課時特別針對性地修正,從結果顯示效果非常明顯。
結語
當AI成為教師的「鏡像助手」,教學大數據將揭開課堂黑箱。如案例所示,教師透過三週定向優化,成功將教師課堂話語占比下降了19.2%,將這些時間轉換成學生自主活動,讓學生站到課堂中央,並更加精準地控制口語慣性。這印證了馬扎諾理論的新解:在AI輔助下,十年專長積累可壓縮為精準的成長週期。
教育終究是藝術與科學的交織。當AI承擔量化診斷,教師更需專注於數據背後的教學智慧——何時該打破平衡激發討論?何時需回歸講授釐清概念?這正是數位時代教師專業性的終極彰顯。