Aplikasi model bahasa visual dalam pemanduan autonomi

2024-12-25 10:20
 0
Sebagai teknologi kecerdasan buatan baharu, model bahasa visual (VLM) sedang mengubah peraturan permainan dalam industri pemanduan autonomi. Model ini dapat memahami dan mentafsir maklumat visual dan teks, membolehkan kenderaan memahami dengan lebih baik persekitarannya dan membuat keputusan. Sebagai contoh, VLM boleh membantu kenderaan mengenali tanda lalu lintas dan tanda jalan, memahami niat pejalan kaki dan kenderaan lain, malah meramalkan tingkah laku pemandu lain. Ini bukan sahaja dapat meningkatkan keselamatan dan kecekapan kenderaan autonomi, tetapi juga membantu menyelesaikan beberapa masalah yang telah lama melanda industri pemanduan autonomi, seperti cara menangani senario trafik yang kompleks dan faktor yang tidak menentu.