近期閱讀了很多有關ChatGPT話題,發現經過ChatGPT所得到的答案往往有較強的說服力,但答案的內容卻缺少質量和正確性,這是否會導致某些領域的圈外人士和初學小白了解或學習信息的成本和難度大大提升?或添加學習、科普工作的難度?(感覺能養活一批營銷號 ) 進一步,如果持續練習模型并完成對虛偽、過錯案例的偽造和配對,是否能完成快速大批次制造更真實、更難辨的謠言?
近期閱覽了大量有關ChatGPT論題,發現通過ChatGPT所得到的答案往往有較強的說服力,但答案的內容卻缺乏質量和正確性,這是否會導致某些領域的圈外…