最近可以看到越來越多玩家開始使用Chatgpt或Gemini等大眾用生成式AI工具處理水族相關的問題。不過AI雖然方便,但在很多情境下其實是很容易給出錯的離譜的答案或建議,因此我這邊稍微提幾個我會注意的重點給喜歡問AI問題的玩家參考一下以免鬧出太大的笑話,如果各位還有想到更多的話歡迎繼續補充。
 
提問時一定要要求附上資料來源並親自閱讀
常見的生成式AI工具的資訊來源至多也就只是從網路上做搜尋而已,其實多半不會比你自己爬文好到哪去(當然也取決於每個人的搜尋能力),因此要求附上資料來源並審查其可靠性非常重要。不過即使給了reference也請去把該文獻親自找出來,因為AI也常常會無中生有給出根本不存在的幽靈文獻,甚至在學術發表中也曾出現過這問題。此外,AI所給出的結論也不見得真的就是照著該來源講的。很多時候提供的參考文獻可能根本和問題沒關係,而AI也常對於內文有所誤解或斷章取義而給出錯誤結論,因此自己閱讀原始文獻還是很重要的。基本上我是會比較建議將AI當作找資料的助手而非答題機器,不過如果該主題的原始文獻連你自己都看不太懂也不曉得可不可靠的話最好就不要用AI了,因為就算它講錯你也無法分辨。
 
不要用AI計算你自己都不會算的數學問題
Chatgpt或Gemini等工具的本質仍然是語言模型,因此計算並不是它們的強項,錯誤率也非常非常的高。它們雖然也不是不能拿來輔助計算,但使用時一定要要求附上計算過程並自己檢查過一遍,因此若是你自己也不會算的東西就一樣沒辦法抓到錯誤了。通常在處理化學添加劑相關問題時會最危險,因為常常算錯的偏差都是直接跑掉個好幾倍,若是你還真的乖乖照著配製加到缸裡的話我也只能祝你好運了......
 
多生成幾次看你會不會得到不同回覆
如果真的一時有點懶得去讀原始資料的話,另一個可以幫你排除AI唬爛的小技巧是直接反覆生成幾次回覆,如果AI的答案每次都不太一樣的話那就代表這個問題大概是不太適合讓它處理了(這狀況在數學問題上尤其常見)。不過這個方法頂多就是幫你篩掉明顯有問題的狀況,最終還是得靠你自己去讀文獻來辨別資訊的可靠程度。另外反覆生成的技巧有時候其實是可以幫你找出一些關於該主題原先沒想到面向,但這也是建立在你對該議題有足夠先備知識的情況下。
 
使用AI資訊回覆別人時請註明
當然判斷回答是否值得信賴的確算是發問者的責任,但若一個人跑來留言說"加XX藥劑可以處理鼻涕藻"然後沒有其他前後文的話多數人恐怕都會預設這段話是來自對方的個人經驗並依此作為判斷基礎。我們已經知道Chatgpt或Gemini等生成式AI給的答案非常有可能是錯誤或是完全瞎掰的了,因此在沒有查證過的情況下用來直接當作自己講的東西的話我認為是很不負責任的行為。這點其實也不限於AI,回覆別人問題時我一率都會建議註明一下資訊的來源。當然不見得要是期刊論文等級的東西,但至少說一下你是在什麼討論串、社群媒體、影片、或podcast上得知該資訊。如果是你自己的實際經驗最好也多說明一下當時的情境讓提問者可以有多一點情報判斷資訊是否適用。
	
		
			
		
		
	
				
			提問時一定要要求附上資料來源並親自閱讀
常見的生成式AI工具的資訊來源至多也就只是從網路上做搜尋而已,其實多半不會比你自己爬文好到哪去(當然也取決於每個人的搜尋能力),因此要求附上資料來源並審查其可靠性非常重要。不過即使給了reference也請去把該文獻親自找出來,因為AI也常常會無中生有給出根本不存在的幽靈文獻,甚至在學術發表中也曾出現過這問題。此外,AI所給出的結論也不見得真的就是照著該來源講的。很多時候提供的參考文獻可能根本和問題沒關係,而AI也常對於內文有所誤解或斷章取義而給出錯誤結論,因此自己閱讀原始文獻還是很重要的。基本上我是會比較建議將AI當作找資料的助手而非答題機器,不過如果該主題的原始文獻連你自己都看不太懂也不曉得可不可靠的話最好就不要用AI了,因為就算它講錯你也無法分辨。
不要用AI計算你自己都不會算的數學問題
Chatgpt或Gemini等工具的本質仍然是語言模型,因此計算並不是它們的強項,錯誤率也非常非常的高。它們雖然也不是不能拿來輔助計算,但使用時一定要要求附上計算過程並自己檢查過一遍,因此若是你自己也不會算的東西就一樣沒辦法抓到錯誤了。通常在處理化學添加劑相關問題時會最危險,因為常常算錯的偏差都是直接跑掉個好幾倍,若是你還真的乖乖照著配製加到缸裡的話我也只能祝你好運了......
多生成幾次看你會不會得到不同回覆
如果真的一時有點懶得去讀原始資料的話,另一個可以幫你排除AI唬爛的小技巧是直接反覆生成幾次回覆,如果AI的答案每次都不太一樣的話那就代表這個問題大概是不太適合讓它處理了(這狀況在數學問題上尤其常見)。不過這個方法頂多就是幫你篩掉明顯有問題的狀況,最終還是得靠你自己去讀文獻來辨別資訊的可靠程度。另外反覆生成的技巧有時候其實是可以幫你找出一些關於該主題原先沒想到面向,但這也是建立在你對該議題有足夠先備知識的情況下。
使用AI資訊回覆別人時請註明
當然判斷回答是否值得信賴的確算是發問者的責任,但若一個人跑來留言說"加XX藥劑可以處理鼻涕藻"然後沒有其他前後文的話多數人恐怕都會預設這段話是來自對方的個人經驗並依此作為判斷基礎。我們已經知道Chatgpt或Gemini等生成式AI給的答案非常有可能是錯誤或是完全瞎掰的了,因此在沒有查證過的情況下用來直接當作自己講的東西的話我認為是很不負責任的行為。這點其實也不限於AI,回覆別人問題時我一率都會建議註明一下資訊的來源。當然不見得要是期刊論文等級的東西,但至少說一下你是在什麼討論串、社群媒體、影片、或podcast上得知該資訊。如果是你自己的實際經驗最好也多說明一下當時的情境讓提問者可以有多一點情報判斷資訊是否適用。
			
				最後編輯: 
			
		
	
								
								
									
	
		
			
		
		
	
	
	
		
			
		
		
	
								
							
							
 
 
		 
 
		 
 
		 
	

 
 
		 
 
		 
 
		