在线看高清免费av|亚洲一级AAAAAA|亚洲黄色三级av在线小说|国产电影黄色无码,免费|尤物视频成人亚洲激情有码网|91人人尤物视频|欧美一级特黄色大片|久草九草黄色视频大片|操操操操操操操|国产69精品久久久久男男系列
教育大模型使用情況調(diào)查表(高等教育版)
尊敬的老師/同學(xué):
您好!為深入了解高等教育場景下教育大模型的使用情況,特開展本次調(diào)研。問卷采用匿名形式,所有數(shù)據(jù)僅用于學(xué)術(shù)研究,嚴(yán)格保密。請結(jié)合實際體驗如實填寫,感謝您的支持!
1.您的身份:
高校教師
在校大學(xué)生
教育管理人員
其他(請注明)
2.您所在的學(xué)科領(lǐng)域:
人文社科
理工科
醫(yī)學(xué)
農(nóng)學(xué)
藝術(shù)學(xué)
其他(請注明)
3.您更經(jīng)常使用以下哪些教育大模型進(jìn)行學(xué)習(xí)?
訊飛星火X1
豆包愛學(xué)
文心教育4.5
騰訊青少年大模型
清華MAIC
猿力大模型
松鼠AI
GLM-Edu
其他(請注明)
4.您使用教育大模型的頻率
從未使用
偶爾使用(每月1-3次)
經(jīng)常使用(每月4-10次)
頻繁使用(每月10次以上)
5.使用教育大模型您的主要用途是?
備課資源生成(教案/課件/習(xí)題)
課堂活動設(shè)計(情境創(chuàng)設(shè)/互動游戲)
作業(yè)批改
科研論文輔助/行政事務(wù)處理(通知/報告撰寫)
專業(yè)課程輔導(dǎo)
獲取多元思路
其他(請注明)
6.您認(rèn)為以下哪些AI大模型的使用行為可能違背教育倫理?
未經(jīng)標(biāo)注將AI生成內(nèi)容直接作為科研論文成果提交
AI大模型批量生成同質(zhì)化教案/作業(yè),未結(jié)合學(xué)情優(yōu)化
利用AI分析學(xué)生學(xué)習(xí)數(shù)據(jù)后,進(jìn)行不當(dāng)排名或差異化對待
科研中用AI生成實驗數(shù)據(jù)或篡改原始數(shù)據(jù)
其它(請注明)
7.您認(rèn)為教育大模型在隱私保護(hù)與倫理規(guī)范方面最需改進(jìn)的是?
明確個人/科研數(shù)據(jù)收集范圍(避免過度收集)
簡化隱私政策(讓使用者清晰知曉數(shù)據(jù)用途)
加強(qiáng)敏感數(shù)據(jù)加密存儲與訪問權(quán)限管控
賦予使用者數(shù)據(jù)修改/刪除權(quán)
明確數(shù)據(jù)使用期限與倫理邊界(如禁止用于商業(yè)營銷)
其他(請注明)
8.以下是關(guān)于教育數(shù)據(jù)的觀點或描述,請結(jié)合您的實際學(xué)習(xí)情況,選擇您對下列觀點或描述的態(tài)度:
非常不同意
比較不同意
一般同意
比較同意
非常同意
a.我認(rèn)為高等教育場景中使用AI大模型,存在個人/科研敏感數(shù)據(jù)泄露的風(fēng)險
b.我認(rèn)為在教育環(huán)境中,收集學(xué)生的家長信息(如職業(yè)、收入、教育背景等)可能導(dǎo)致不公平現(xiàn)象的發(fā)生
c.我認(rèn)為教育數(shù)據(jù)采集、分析、處理過程中產(chǎn)生的不公平現(xiàn)象會加大結(jié)果分析失真、決策失誤等風(fēng)險
d.我認(rèn)為我在智能教學(xué)平臺或軟件上填寫的個人信息有被泄露的風(fēng)險
e.我認(rèn)為我的學(xué)校在教育數(shù)據(jù)的采集、登記、共享等方面制定了公開透明的標(biāo)準(zhǔn)
f.我清楚地了解教育數(shù)據(jù)在產(chǎn)生后被誰收集并使用
g.我認(rèn)為學(xué)習(xí)應(yīng)出臺明確的AI大模型使用倫理規(guī)范,約束學(xué)術(shù)場景中的不當(dāng)使用行為
9.您了解或接觸過的以下教育數(shù)據(jù)被非法使用的案例是?
未經(jīng)授權(quán)使用學(xué)生個人信息
濫用學(xué)生成績數(shù)據(jù)進(jìn)行不正當(dāng)?shù)膶W(xué)術(shù)評估或排名
將學(xué)生數(shù)據(jù)用于商業(yè)營銷或廣告推送
泄露學(xué)生數(shù)據(jù)給第三方機(jī)構(gòu)或個人
其他(請注明)
10.您在使用校內(nèi)AI大模型時,是否存在以下安全意識或操作習(xí)慣問題?
不清楚“公共網(wǎng)絡(luò)輸入敏感信息有風(fēng)險”,曾隨意操作
清楚“公共網(wǎng)絡(luò)輸入敏感信息有風(fēng)險”,但內(nèi)心認(rèn)為應(yīng)該不會泄露
使用過未經(jīng)過審核的開源大模型工具(如自行下載的破解版AI助手)
認(rèn)為 “AI安全是技術(shù)人員的事,自己無需關(guān)注使用規(guī)范”
從未主動學(xué)習(xí)過校園AI大模型的安全使用知識
以上均無
11.在AI大模型應(yīng)用中,您認(rèn)為最突出的安全風(fēng)險是哪類?
敏感數(shù)據(jù)泄露(如學(xué)生成績 /身份信息、教師科研機(jī)密被竊取 / 濫用)
模型 “幻覺”/錯誤輸出(如教學(xué)內(nèi)容偏差、科研結(jié)論出錯)
學(xué)術(shù)不端風(fēng)險(如過度依賴 AI 生成論文內(nèi)容、未標(biāo)注AI輔助痕跡)
知識產(chǎn)權(quán)歸屬不清(如AI生成內(nèi)容的版權(quán)歸個人/學(xué)校/平臺)
過度依賴AI(削弱自身批判性思維/獨立創(chuàng)作能力 )
大模型被惡意攻擊(如注入有害信息、篡改輸出結(jié)果)
大模型被非法訪問(如開源軟件、公網(wǎng)裸奔,導(dǎo)致模型被非法訪問)
AI應(yīng)用軟件安全(如智能門禁、流程控制系統(tǒng)因模型漏洞被攻擊,影響校園安全)
其他(請注明)
12.您在學(xué)術(shù)研究/課程學(xué)習(xí)中使用AI大模型時,對 “標(biāo)注 AI 輔助痕跡”的態(tài)度是?
必須標(biāo)注,這是學(xué)術(shù)誠信的基本要求
偶爾標(biāo)注,視使用場景(如課程作業(yè) / 科研論文)而定
很少標(biāo)注,覺得影響效率或沒必要
不清楚相關(guān)規(guī)范,從未標(biāo)注
13.您認(rèn)為教育大模型可能會對以下哪些數(shù)據(jù)進(jìn)行收集?
基本信息(如姓名、性別、家庭成員、住址、聯(lián)系方式)
特殊信息(如身高、體重、婚姻狀況、健康狀況)
信用信息(如銀行賬戶、借貸記錄、納稅情況、遵紀(jì)守法情況)
學(xué)習(xí)工作信息(如成績、學(xué)習(xí)時長、工作文件、工作數(shù)據(jù)等)
網(wǎng)絡(luò)活動信息(如訪問日志、網(wǎng)站用戶名、購物偏好)
日常生活軌跡(如地理位置、出行軌跡)
電子照片、圖片
個人喜好(如購物、飲食、娛樂喜好)
其它(請注明)
14.請您根據(jù)自己的實際情況選擇最符合自己的選項:
非常不同意
比較不同意
一般同意
比較同意
非常同意
a.當(dāng)前數(shù)字技術(shù)風(fēng)險存在監(jiān)管困難
b.我了解目前數(shù)字技術(shù)風(fēng)險的監(jiān)管平臺
c.我了解數(shù)字技術(shù)監(jiān)管相關(guān)的法律法規(guī)
d.當(dāng)前政府對數(shù)字技術(shù)監(jiān)管和評估機(jī)制是有效的
15.您認(rèn)為高等教育場景中,AI大模型的使用應(yīng)遵循哪些倫理原則?
數(shù)據(jù)最小化(僅收集必要信息)
透明可解釋(明確AI決策邏輯與數(shù)據(jù)用途)
學(xué)術(shù)誠信(禁止AI代寫、生成抄襲內(nèi)容)
公平無歧視(避免AI基于數(shù)據(jù)產(chǎn)生偏見性輸出)
使用者知情同意(數(shù)據(jù)收集前明確告知并獲得許可)
其它(請注明)
16.您認(rèn)為哪些主體應(yīng)承擔(dān)教育平臺的監(jiān)管責(zé)任:
政府及教育主管部門
學(xué)校
開發(fā)企業(yè)
使用者
第三方機(jī)構(gòu)
其他(請注明)
17.為防范教育大模型的技術(shù)倫理風(fēng)險,您認(rèn)為監(jiān)管機(jī)構(gòu)應(yīng)重點從哪些維度開展監(jiān)管?
數(shù)據(jù)質(zhì)量維度
內(nèi)容質(zhì)量維度
學(xué)術(shù)倫理維度
算法合規(guī)維度
權(quán)益保障維度
市場準(zhǔn)入維度
責(zé)任追溯維度
動態(tài)監(jiān)管維度
其它(請注明)
18.對于教育大模型的規(guī)范使用,您希望學(xué)校采取的管理措施:
出臺使用規(guī)范
開展相關(guān)教育講座
篩選合規(guī)大模型
建立反饋渠道
其他(請注明)
19.學(xué)校若要加強(qiáng)AI大模型安全防護(hù),您認(rèn)為最急需落地的措施是哪類?
建立AI大模型“準(zhǔn)入審核機(jī)制”(如上線前需通過安全測試)
強(qiáng)制數(shù)據(jù)加密(如輸入數(shù)據(jù)自動脫敏、存儲加密)
明確AI生成內(nèi)容的“使用規(guī)范”(如學(xué)術(shù)場景禁用范圍)
設(shè)立“安全投訴通道”(如遇到問題可快速反饋處理)
模型層評估(如定期漏洞排查、合規(guī)檢測,避免模型“帶病運行”)
工具層防護(hù)(如在用戶與模型間加“哨兵”,識別惡意操作/敏感輸出)
明確AI工具使用規(guī)范(如禁止在公共網(wǎng)絡(luò)傳敏感數(shù)據(jù)、開源工具需審核并加強(qiáng)安全措施)
20.若學(xué)校開展AI大模型安全培訓(xùn),您最希望掌握的內(nèi)容是哪類?
風(fēng)險識別(如如何判斷模型是否“裸奔”、敏感數(shù)據(jù)是否加密)
數(shù)據(jù)保護(hù)操作技巧(如如何避免敏感數(shù)據(jù)泄露)
實操防護(hù)(如公共網(wǎng)絡(luò)下的數(shù)據(jù)保護(hù)技巧、開源工具審核流程)
學(xué)術(shù)場景AI使用規(guī)范(如避免學(xué)術(shù)不端)
攻擊應(yīng)對(如遇到模型被注入惡意信息、設(shè)施異常時如何處理)
合規(guī)認(rèn)知(如AI生成內(nèi)容的知識產(chǎn)權(quán)、安全責(zé)任劃分邊界)
其它(請注明)
21.對于教育大模型在規(guī)范使用方面,您有哪些具體改進(jìn)建議?
關(guān)閉
更多問卷
復(fù)制此問卷