Sebastian Thrun ਦੇ Stanford ਅਤੇ self-driving cars ਤੋਂ Udacity ਤੱਕ ਦੇ Safar ਨੂੰ ਖੋਜੋ, ਅਤੇ ਜਾਣੋ ਕਿ ਇਹ ਕਹਾਣੀ AI ਬਣਾਉਣ ਅਤੇ ਇਸਨੂੰ ਸਿਖਾਉਣ ਬਾਰੇ ਕੀ ਸਿਖਾਉਂਦੀ ਹੈ।

Sebastian Thrun ਉਹਨਾਂ ਵਿਲੱਖਣ ਲੋਕਾਂ ਵਿੱਚੋਂ ਹੈ ਜਿਨ੍ਹਾਂ ਦੇ ਕੰਮ ਨੇ ਇੱਕੋ ਸਮੇਂ ਅਸਲ ਦੁਨੀਆ ਵਿਚ AI ਕੀ ਕਰ ਸਕਦਾ ਹੈ ਅਤੇ ਲੋਕਾਂ ਨੂੰ ਇਸਨੂੰ ਕਿਵੇਂ ਸਿੱਖਾਉਣਾ ਹੈ ਦੋਹਾਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕੀਤਾ। ਉਹ ਇਕ ਅਗੇਤਰਿ ഗവेषਕ, ਮਹੱਤਵਾਕਾਂਕਸ਼ੀ ਪ੍ਰੋਡਕਟਾਂ ਦਾ ਹੱਥ-ਅਨੁਭਵ ਰੱਖਣ ਵਾਲਾ ਨਿਰਮਾਤਾ, ਅਤੇ ਇੱਕ ਐਡਯੂਕੇਟਰ ਰਹੇ ਹਨ ਜਿਸਨੇ ਇੰਟਰਨੈਟ ਪੱਧਰ 'ਤੇ AI ਸਿੱਖਿਆ ਨੂੰ ਲੋਕਪ੍ਰਿਯ ਬਣਾਇਆ। ਇਹ ਸੰਯੋਗ ਸਾਡੇ ਲਈ ਮਾਡਰਨ AI ਨੂੰ ਸਿਰਫ਼ ਹੈਡਲਾਈਨ ਤੋਂ ਬਾਹਰ ਸਮਝਣ ਦਾ ਇੱਕ ਉਪਯੋਗੀ ਨਜ਼ਰੀਆ ਦਿੰਦਾ ਹੈ।
ਇਹ ਕਹਾਣੀ ਦੋ ਥੀਮਾਂ ਦਾ ਪਿੱਛਾ ਕਰਦੀ ਹੈ ਜੋ ਬਾਹਰ ਵੱਖਰੀਆਂ ਲੱਗਦੀਆਂ ਹਨ ਪਰ ਇੱਕੋ ਸੋਚ ਸਾਂਝੀ ਕਰਦੀਆਂ ਹਨ।
ਪਹਿਲਾ ਹੈ autonomous driving: ਉਹ ਠੋਕਰ ਜਿਸਦਾ ਮਕਸਦ ਮਸ਼ੀਨਾਂ ਨੂੰ ਗੰਦੇ ਮਾਹੌਲਾਂ ਨੂੰ ਵੇਖਣ, ਅਣਿਸ਼ਚਿਤਤਾ ਹੇਠ ਫੈਸਲੇ ਲੈਣ, ਅਤੇ ਲੋਕਾਂ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਸੁਰੱਖਿਅਤ ਢੰਗ ਨਾਲ ਚਲਾਉਣ ਯੋਗ ਬਣਾਉਣਾ ਹੈ। Thrun ਦਾ ਕੰਮ self-driving cars ਨੂੰ ਇੱਕ ਰੀਸਰਚ ਡੈਮੋ ਤੋਂ ਇੱਕ ਐਸੇ ਚੀਜ਼ ਵਿੱਚ ਬਦਲਣ ਵਿੱਚ ਮਦਦਗਾਰ ਸੀ ਜਿਸਨੂੰ ਟੈਕ ਉਦਯੋਗ ਗੰਭੀਰਤਾ ਨਾਲ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦਾ ਸੀ।
ਦੂਜਾ ਹੈ AI ਸਿੱਖਿਆ: ਇਹ ਵਿਚਾਰ ਕਿ ਸਿੱਖਣਾ ਕੇਵਲ ਇੱਕ ਕੈਂਪਸ ਜਾਂ ਕੁਝ ਅੰਦਰੂਨੀ ਲੋਕਾਂ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਹੋਣਾ ਚਾਹੀਦਾ। Udacity ਅਤੇ ਪੂਰਵਤਮ ਆਨਲਾਈਨ ਕੋਰਸਾਂ ਰਾਹੀਂ, Thrun ਨੇ “ਬਣਾਕੇ ਸਿੱਖੋ” ਨੂੰ ਉਨ੍ਹਾਂ ਲੋਕਾਂ ਲਈ ਮਿਆਰੀ ਰਸਤਾ ਬਣਾਇਆ ਜੋ ਟੈਕ ਵਿੱਚ ਦਾਖ਼ਲ ਹੋਣਾ ਚਾਹੁੰਦੇ ਸਨ।
ਇਹ ਕੋਈ “ਭਵਿੱਖ” ਬਾਰੇ ਹਾਈਪ ਪੋਸਟ ਜਾਂ ਹਰ ਇਕ ਪਲ-ਪਦਰ ਢਕਣ ਵਾਲੀ ਜੀਵਨੀ ਨਹੀਂ ਹੈ। ਇਸ ਦੀ ਬਜਾਏ, ਇਹ ਕੁਝ ਪ੍ਰੈਕਟੀਕਲ ਪਾਠਾਂ ਨੂੰ ਵੇਖਦਾ ਹੈ ਜੋ ਵੱਖ-ਵੱਖ ਸੰਦਰਭਾਂ ਵਿੱਚ ਲਾਗੂ ਹੁੰਦੇ ਹਨ:\n\n- ਡੇਟਾ, ਸੁਰੱਖਿਆ, ਦੁਹਰਾਈ, ਅਤੇ ਨਿਮਰਤਾ ਬਾਰੇ ਅਸਲ-ਦੁਨੀਆਂ ਦੀ autonomy ਸਿਖਾਉਂਦੀ ਹੈ\n- ਸਕੇਲਿੰਗ ਸਿੱਖਿਆ ਬਾਰੇ ਜੋ ਪ੍ਰੇਰਣਾ, ਫੀਡਬੈਕ, ਅਤੇ ਨੌਕਰੀ-ਤਿਆਰ ਹੁਨਰਾਂ ਬਾਰੇ ਦੱਸਦੀ ਹੈ\n- ਜਿੱਥੇ ਵੱਡੇ ਦਾਂਵੇ ਸਫਲ ਹੁੰਦੇ ਹਨ, ਜਿੱਥੇ ਉਹ ਫੇਲ ਹੁੰਦੇ ਹਨ, ਅਤੇ ਕੀ ਨਕਲ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ ਧਿਆਨ ਨਾਲ
ਜੇ ਤੁਸੀਂ AI ਉਤਪਾਦ ਬਣਾ ਰਹੇ ਹੋ, AI ਸਿੱਖ ਰਹੇ ਹੋ, ਜਾਂ ਟੀਮਾਂ ਨੂੰ ਸਿਖਾ ਰਹੇ ਹੋ—Thrun ਦਾ ਰਸਤਾ ਕੀਮਤੀ ਹੈ ਕਿਉਂਕਿ ਇਹ ਰੀਸਰਚ, ਉਦਯੋਗ ਕਾਰੀਗਰੀ, ਅਤੇ ਵਿਆਪਕ ਸਿੱਖਿਆ—ਇਨ੍ਹਾਂ ਤਿੰਨ ਦੁਨੀਆਂ ਨੂੰ ਜੋੜਦਾ ਹੈ ਜੋ ਅਕਸਰ ਸਾਫ਼ ਤਾਂ ਨਹੀਂ ਮਿਲਦੀਆਂ, ਪਰ ਬਿਨਾਂ ਇੱਕ-ਦੂਜੇ ਤੋਂ ਨਿਰਭਰ ਹਨ।
Sebastian Thrun ਦਾ AI ਵੱਲ ਰਾਸ਼ਟਰੀ ਰਸਤਾ ਅਕਾਦਮੀਆ ਵਿੱਚੋਂ ਸ਼ੁਰੂ ਹੋਇਆ, ਜਿੱਥੇ ਜਿਗਿਆਸਾ ਅਤੇ ਗਣਿਤੀ ਕੜਕਾਈ ਪ੍ਰੋਡਕਟ ਡੈਡਲਾਈਨ ਤੋ ਵੱਧ ਮਹੱਤਵਪੂਰਨ ਸੀ। ਜਰਮਨੀ ਵਿਚ ਕੰਪਿਊਟਰ ਸਾਇੰਸ ਦੀ ਤਾਲੀਮ ਤੋਂ ਬਾਅਦ, ਉਹ ਇਸ ਵੇਲੇ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਅਤੇ ਰੋਬੋਟਿਕਸ ਵਿਚ ਆਇਆ ਜਦੋਂ “AI” ਅਕਸਰ ਸੰਭਾਵਨਾਤਮਕ ਮਾਡਲਾਂ ਦਾ ਮਤਲਬ ਹੁੰਦਾ ਸੀ, ਨਾ ਕਿ ਵੱਡੇ ਨਿਊਰਲ ਨੈੱਟਵਰਕ। ਇਹ ਬੁਨਿਆਦ—ਅਣਿਸ਼ਚਿਤਤਾ ਨੂੰ ਪਹਿਲੀ ਸਤਰ ਦਾ مسئਲਾ ਮੰਨਣਾ—ਉਹਨਾਂ ਮਸ਼ੀਨਾਂ ਲਈ ਬਾਅਦ ਵਿੱਚ ਲਾਜ਼ਮੀ ਹੋਈਆਂ ਜਿਹੜੀਆਂ ਗੰਦੇ, ਅਣਪਛਾਤੇ ਮਾਹੌਲ ਵਿਚ ਕੰਮ ਕਰਦੀਆਂ ਹਨ।
Stanford 'ਤੇ, Thrun ਪ੍ਰੋਫੈਸਰ ਬਣੇ ਅਤੇ ਇੱਕ ਇੰਸਾਨੀ ਸਭਿਆਚਾਰ ਬਣਾਇਆ ਜਿੱਥੇ AI ਸਿਰਫ਼ ਪੇਪਰ ਛਾਪਣ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਸੀ, ਬਲਕਿ ਵਿਚਾਰਾਂ ਨੂੰ ਭੌਤਿਕ ਪ੍ਰਣਾਲੀਆਂ 'ਤੇ ਟੈਸਟ ਕਰਨ ਬਾਰੇ ਵੀ ਸੀ। ਉਹਦਾ ਕੰਮ ਇਹਨਾਂ ਖੇਤਰਾਂ ਦੇ ਮਿਲਾਪ 'ਤੇ ਸੀ:\n\n- Robotics, ਜਿੱਥੇ perception ਅਤੇ control ਨੂੰ रੀਅਲ-ਟਾਈਮ ਵਿੱਚ ਮਿਲਣਾ ਪੈਂਦਾ ਹੈ\n- Machine learning, ਅਪੂਰਨ ਡੇਟਾ ਤੋਂ ਜਨਰਲਾਈਜ਼ ਕਰਨ ਲਈ ਵਰਤੀ ਜਾਂਦੀ ਹੈ\n- Probabilistic reasoning, ਜਦੋਂ ਸੈਂਸਰ ਸ਼ੋਰ ਜਾਂ ਅਧੂਰੇ ਹੋਣ ਤਾਂ ਫੈਸਲੇ ਕਰਨ ਲਈ\n\nਇਹ ਮਿਕਸ ਇੱਕ ਖ਼ਾਸ ਮਨੋਭਾਵ ਨੂੰ ਵਧਾਉਂਦਾ ਸੀ: ਪ੍ਰਗਤੀ ਕੇਵਲ ਬੈਂਚਮਾਰਕ ਤੇ accuracy ਵਧਾਉਣ ਨਹੀਂ—ਇਹ ਦੇਖਣਾ ਹੈ ਕਿ ਜਦੋ ਸਥਿਤੀਆਂ ਬਦਲਦੀਆਂ ਹਨ ਤਾਂ ਸਿਸਟਮ ਕੰਮ ਕਰਦਾ ਰਹੇ।
Stanford ਦਾ ਰੀਸਰਚ ਵਾਤਾਵਰਨ ਉਹਆਦਤਾਂ ਨੂੰ ਮਜ਼ਬੂਤ ਕੀਤਾ ਜੋ Thrun ਦੀ ਪੂਰੀ ਕਰੀਅਰ ਵਿੱਚ ਦਿਖਾਈ ਦਿੰਦੀਆਂ ਹਨ:\n\nਪਹਿਲਾ, ਵੱਡੇ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਟੈਸਟ ਕਰਨਯੋਗ ਹਿੱਸਿਆਂ ਵਿੱਚ ਵੰਡੋ। Autonomous ਸਿਸਟਮ ਇੱਕ ਮਾਡਲ ਨਹੀਂ—ਉਹ perception, prediction, planning, ਅਤੇ safety checks ਹਨ ਜੋ ਪਾਈਪਲਾਈਨ ਵਾਂਗ ਕੰਮ ਕਰਦੇ ਹਨ।\n\nਦੂਜਾ, ਥਿਆਰੀ ਅਤੇ ਪ੍ਰਯੋਗਾਂ ਵਿਚਕਾਰ ਫੀਡਬੈਕ ਲੂਪ ਬਣਾਓ। ਬਹੁਤ ਸਾਰੇ ਅਕਾਦਮਿਕ ਪ੍ਰੋਜੈਕਟ ਡੈਮੋ ਪੱਧਰ 'ਤੇ ਮਰ ਜਾਂਦੇ ਹਨ; ਮਜ਼ਬੂਤ robotics ਸਭਿਆਚਾਰ ਫੀਲਡ 'ਚ ਦੁਹਰਾਈ ਨੂੰ ਇਨਾਮ ਦਿੰਦਾ ਹੈ।\n\nਤੀਜਾ, ਸਿੱਖਾਓ ਅਤੇ ਗਿਆਨ ਨੂੰ ਸਕੇਲ ਕਰੋ। ਵਿਦਿਆਰਥੀਆਂ ਦੀ ਅਗਵਾਈ, ਲੈਬਾਂ ਚਲਾਉਣਾ, ਅਤੇ ਮੁਸ਼ਕਲ ਵਿਚਾਰਾਂ ਨੂੰ ਸਾਫ਼-ਸਪਸ਼ਟ ਢੰਗ ਨਾਲ ਸਮਝਾਉਣਾ Thrun ਦੀ ਬਾਅਦੀ education ਵੱਲ ਰੁਝਾਨ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦਾ ਸੀ—ਉੱਚ-ਸਤਰ ਦੇ AI ਵਿਸ਼ਿਆਂ ਨੂੰ ਐਸੇ ਢਾਂਚਿਆਂ ਵਿੱਚ ਬਦਲਨਾ ਜੋ ਲੋਕ ਅਸਲ ਵਿੱਚ ਖਤਮ ਕਰ ਸਕਣ।
DARPA Grand Challenge ਇੱਕ ਸਰਕਾਰੀ ਮੁਕਾਬਲਾ ਸੀ ਜਿਸਦਾ ਸਮਰੂਪ ਲਕੜਾ ਸੀ: ਇੱਕ ਵਾਹਨ ਬਣਾਓ ਜੋ ਖ਼ੁਦ ਆਪਣਾ ਰਸਤਾ ਚਲ ਸਕੇ—ਕੋਈ ਰਿਮੋਟ ਕੰਟਰੋਲ ਨਹੀਂ, ਕੋਈ ਮਨੁੱਖੀ ਸਟੀਅਰਿੰਗ ਨਹੀਂ, ਸਿਰਫ़ ਸੌਫਟਵੇਅਰ ਅਤੇ ਸੈਂਸਰ।
ਅਕਸਰ ਇਹ ਨੂੰ ਇਉਂ ਸੋਚੋ: ਇਕ ਕਾਰ ਲਓ, ਡਰਾਈਵਰ ਹਟਾਓ, ਅਤੇ ਉਸਨੂੰ ਰੇਤਿਲੇ ਟਰੇਲ, ਟਿਲੇ ਅਤੇ ਅਣਅੰਦਾਜ਼ ਰੁਕਾਵਟਾਂ ਰਾਹੀਂ ਸਫ਼ਰ ਕਰਵਾਓ ਜਦੋਂ ਤੱਕ ਉਹ ਘੰਟਿਆਂ ਤੱਕ 'ਖ਼ੁਦ' ਜ਼ਿੰਦਾਂ ਰਹੇ। ਸ਼ੁਰੂਆਤੀ ਰੇਸ ਬਹੁਤ ਕਠੋਰ ਸਨ; ਬਹੁਤ ਸਾਰੀਆਂ ਵਾਹਨਾਂ ਨੇ ਸਿਰਫ ਕੁਝ ਮੀਲ ਹੀ ਤੱਕ ਪਹੁੰਚਿਆ ਅਤੇ ਫਸ ਗਏ ਜਾਂ ਖ਼ਰਾਬ ਹੋ ਗਏ।
Sebastian Thrun ਨੇ ਇਕ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਟੀਮ ਦੀ ਅਗਵਾਈ ਕੀਤੀ, ਜਿਸਨੇ ਰੀਸਰਚਰਾਂ ਅਤੇ ਇੰਜੀਨੀਅਰਾਂ ਨੂੰ ਇਕਠੇ ਕੀਤਾ ਜੋ ਸਮੱਸਿਆ ਨੂੰ ਡੈਮੋ ਵਾਂਗ ਨਹੀਂ ਘੁੰਮਾਉਂਦੇ ਸਗੋਂ ਇੱਕ ਪੂਰੀ ਪ੍ਰਣਾਲੀ ਵਜੋਂ ਲੈਂਦੇ ਸਨ। ਖ਼ਾਸ ਗੱਲ ਕੋਈ ਇਕ ਚਾਲਾਕ ਟ੍ਰਿਕ ਨਹੀਂ ਸੀ—ਇਹ ਬਹੁਤ ਸਾਰੇ ਅਪਰਫੈਕਟ ਹਿੱਸਿਆਂ ਨੂੰ ਇਕੱਠਾ ਕਰਨ ਦੀ ਅਨੁਸ਼ਾਸਨ ਸੀ ਤਾਂ ਜੋ ਕੁਝ ਅਜਿਹਾ ਬਣੇ ਜੋ ਅਸਲੀ ਸਥਿਤੀਆਂ ਵਿੱਚ ਟਿਕ ਸਕੇ।
ਇਹ ਮਨੋਭਾਵ—ਬਣਾਓ, ਟੈਸਟ ਕਰੋ, ਫੇਲ ਹੋਵੋ, ਸੁਧਾਰ ਕਰੋ—ਬਾਅਦ ਦੇ autonomous driving ਕੰਮਾਂ ਲਈ ਇੱਕ ਟੈਮਪਲੇਟ ਬਣ ਗਿਆ। ਮੁਕਾਬਲੇ ਨੇ ਟੀਮਾਂ ਨੂੰ ਲੈਬ ਦੇ ਬਾਹਰ ਆਪਣੇ ਵਿਚਾਰ ਸਾਬਤ ਕਰਨ ਲਈ ਮਜ਼ਬੂਰ ਕੀਤਾ, ਜਿੱਥੇ ਧੂੜ, ਰੋਸ਼ਨੀ, ਉਠਾਨ-ਬੈਠਾਨ, ਅਤੇ ਅਸਪਸ਼ਟਤਾ ਸਾਫ਼ ਧਾਰਨਾਵਾਂ ਨੂੰ ਅਕਸਰ ਤੋੜ ਦਿੰਦੇ ਸਨ।
ਤਿੰਨ ਵੱਡੇ ਵਿਚਾਰਾਂ ਨੇ ਇਨ੍ਹਾਂ ਵਾਹਨਾਂ ਨੂੰ ਚਲਾਇਆ:\n\n- Sensors: ਕਾਰ ਨੂੰ “ਅੱਖਾਂ ਅਤੇ ਕੰਨ” ਦੀ ਲੋੜ ਸੀ। ਟੀਮਾਂ ਨੇ lidar, radar, cameras, ਅਤੇ GPS ਵਰਗੇ ਟੂਲ ਮਿਲਾ ਕੇ ਸੜਕ ਦੇ ਕੰਢੇ, ਰੁਕਾਵਟਾਂ, ਅਤੇ ਭੂਦ੍ਰਿਸ਼ ਨੂੰ ਪਤਾ ਲਾਇਆ।\n- Mapping and localization: ਦੇਖਣਾ ਹੀ ਕਾਫ਼ੀ ਨਹੀਂ—ਤੁਹਾਨੂੰ ਪਤਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਕਿੱਥੇ ਹੋ। ਵਾਹਨ ਸੈਂਸਰ ਡੇਟਾ ਨੂੰ ਫਿਊਜ਼ ਕਰਕੇ ਸਥਿਤੀ ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾਉਂਦੇ ਅਤੇ ਚਾਰ-ਪਾਸੇ ਦੀ ਵਰਤੋਂਯੋਗ ਤਸਵੀਰ ਬਣਾਉਂਦੇ ਸਨ।\n- Decision-making: ਸਿਸਟਮ ਨੂੰ ਕਾਰਵਾਈਆਂ ਚੁਣਣੀਆਂ ਪੈਂਦੀਆਂ ਸਨ: ਰਫਤਾਰ ਘਟਾਉ, ਪੱਥਰਾਂ ਨੂੰ ਘੁਮਾ ਕੇ ਜਾਵੋ, ਸੁਰੱਖਿਅਤ ਰਸਤਾ ਰੱਖੋ, ਅਤੇ ਜਦੋ ਯੋਜਨਾ ਹਕੀਕਤ ਨਾਲ ਮੇਲ ਨਾ ਖਾਂਦੇ ਤਾਂ ਠੀਕ ਹੋਵੋ।\n\nDARPA ਚੈਲੈਂਜਜ਼ ਨੇ ਸਿਰਫ ਰਫ਼ਤਾਰ ਲਈ ਇਨਾਮ ਨਹੀਂ ਦਿੱਤਾ। ਉਹਨਾ ਨੇ ਸਬੂਤ ਦਿੱਤਾ ਕਿ autonomy ਇੱਕ end-to-end ਇੰਜੀਨੀਅਰਿੰਗ ਸਮੱਸਿਆ ਹੈ—perception, mapping, ਅਤੇ decisions ਤਣਾਅ ਹੇਠ ਕੰਮ ਕਰਕੇ ਹੀ ਅੱਗੇ ਵਧਦੇ ਹਨ।
Google X (ਹੁਣ X) “moonshots” ਦਾ ਪਿੱਛਾ ਕਰਨ ਲਈ ਬਣਾਇਆ ਗਿਆ ਸੀ: ਉਹ ਵਿਚਾਰ ਜੋ ਸ਼ੁਰੂ ਵਿੱਚ ਥੋੜ੍ਹੇ ਬੇਮਤਲਬ ਲੱਗਦੇ ਪਰ ਜਦੋਂ ਕੰਮ ਕਰਨ ਲੱਗਦੇ ਹਨ ਤਾਂ ਰੋਜ਼ਾਨਾ ਜ਼ਿੰਦਗੀ ਬਦਲ ਸਕਦੇ ਹਨ। ਮਕਸਦ ਛੋਟੀ ਫੀਚਰਜ਼ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਛੱਡਣਾ ਨਹੀਂ ਸੀ—ਇਹ ਉਹ breakthroughs 'ਤੇ ਸਟੇਕ ਲਾਉਣਾ ਸੀ ਜੋ ਟਰਾਂਸਪੋਰਟੇਸ਼ਨ ਤੋਂ ਲੈ ਕੇ ਸਿਹਤ ਤੱਕ ਦਿਨਚਰਿਆ ਨੂੰ ਬਦਲ ਸਕਦੇ।
X ਦੇ ਅੰਦਰ ਪ੍ਰੋਜੈਕਟਾਂ ਨੂੰ ਇੱਕ ਬੋਲਡ ਕਾਂਸੈਪਟ ਤੋਂ ਅਸਲ ਦੁਨੀਆ ਵਿੱਚ ਟੈਸਟ ਕਰਨ ਯੋਗ ਚੀਜ਼ ਤੱਕ ਤੇਜ਼ੀ ਨਾਲ ਲਿਜਾਣ ਦੀ ਉਮੀਦ ਸੀ। ਇਸਦਾ ਮਤਲਬ ਸੀ ਪ੍ਰੋਟੋਟਾਈਪ ਬਣਾਉਣਾ, ਨਤੀਜੇ ਮਾਪਣਾ, ਅਤੇ ਉਹਨਾਂ ਵਿਚਾਰਾਂ ਨੂੰ ਮਾਰਨਾ ਜਿਹੜੇ ਹਕੀਕਤ ਨਾਲ ਸੰਪਰਕ 'ਚ ਟਿਕ ਨਹੀਂ ਸਕਦੇ।
Self-driving cars ਇਸ ਮਾਡਲ ਨਾਲ ਬਿਲਕੁਲ ਫਿੱਟ ਬੈਠਦੇ ਸਨ। ਜੇ ਇੱਕ ਕੰਪਿਊਟਰ ਡਰਾਈਵਿੰਗ ਸੰਭਾਲ ਸਕੇ, ਤਾਂ ਉੱਪਰਲੇ ਲਾਭ ਸਿਰਫ ਸੁਵਿਧਾ ਨਹੀਂ—ਇਹ ਘੱਟ ਹਾਦਸਿਆਂ, ਉਹਨਾਂ ਲਈ ਵੱਧ ਗਤੀਸ਼ੀਲਤਾ ਜਿਨ੍ਹਾਂ ਲਈ ਡਰਾਈਵ ਕਰਨਾ ਮੁਸ਼ਕਲ ਹੈ, ਅਤੇ ਘੱਟ ਸਮਾਂ ਬਰਬਾਦ ਹੋਣ ਦਾ ਮਤਲਬ ਹੋ ਸਕਦਾ ਸੀ।
Sebastian Thrun ਨੇ ਅਕਾਦਮਿਕ ਗਹਿਰਾਈ ਅਤੇ ਪ੍ਰਯੋਗਾਤਮਕ ਤੁਰੰਤਤਾ ਦਾ ਇੱਕ ਦੁਰਲਭ ਮਿਸ਼ਰਣ ਲਿਆਂਦਾ। ਉਸਨੇ ਪਹਿਲਾਂ ਹੀ ਮੁਕਾਬਲਾਤੀ ਸੈਟਿੰਗز ਵਿੱਚ autonomy ਸਾਬਤ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕੀਤੀ ਸੀ, ਅਤੇ Google ਵਿੱਚ ਉਹ ਇਸ ਵਿਚਾਰ ਨੂੰ ਪ੍ਰਚਲਿਤ ਕੀਤਾ ਕਿ ਡਰਾਈਵਿੰਗ ਨੂੰ ਮਾਪਯੋਗ ਪ੍ਰਦਰਸ਼ਨ ਨਾਲ ਇੱਕ ਇੰਜੀਨੀਅਰਿੰਗ ਸਮੱਸਿਆ ਵਾਂਗ ਸੰਭਾਲਿਆ ਜਾ ਸਕਦਾ ਹੈ—ਨ ਕਿ ਸਿਰਫ ਇੱਕ ਵਿਗਿਆਨ-ਮੀਲਾ ਡੈਮੋ।
ਸ਼ੁਰੂਆਤੀ ਕੋਸ਼ਿਸ਼ਾਂ ਨੇ ਆਮ ਸਥਿਤੀਆਂ ਨੂੰ ਭਰੋਸੇਯੋਗ ਢੰਗ ਨਾਲ ਹਲ ਕਰਨ 'ਤੇ ਧਿਆਨ ਦਿੱਤਾ: ਲੇਨ ਵਿੱਚ ਰਹਿਣਾ, ਸਿਗਨਲਾਂ ਦੀ ਪਾਲਣਾ, ਪੈਦਲੀਆਂ ਦੀ ਪਹਿਚਾਣ, ਅਤੇ ਸੁਰੱਖਿਅਤ ਤਰੀਕੇ ਨਾਲ ਮੇਰਜ ਹੋਣਾ। ਇਹ ਸਧਾਰਨ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹਨਾਂ ਨੂੰ ਲਗਾਤਾਰ ਕਰਨਾ—ਮੌਸਮ, ਰੋਸ਼ਨੀ, ਅਤੇ ਮਨੁੱਖੀ ਵਿਵਹਾਰ ਦੀ ਗੰਦੀ ਤਰ੍ਹਾਂ—ਅਸਲ ਚੁਣੌਤੀ ਹੈ।
ਇੱਕ ਲੈਬ ਸਿਸਟਮ "ਚਮਕਦਾਰ" ਹੋ ਸਕਦਾ ਹੈ ਅਤੇ ਫਿਰ ਵੀ ਅਣਸੁਰੱਖਿਅਤ। ਪ੍ਰੋਡਕਟ ਸੋਚ ਵੱਖਰੇ ਸਵਾਲ ਉਠਾਉਂਦੀ ਹੈ:\n\n- Safety: ਐਡਜ ਕੇਸز ਵਿੱਚ ਕੀ ਹੁੰਦਾ ਹੈ, ਅਤੇ ਸਿਸਟਮ ਕਿਵੇਂ ਫੇਲ ਹੁੰਦਾ ਹੈ?\n- Scaling: ਕੀ ਇਹ ਇਕ ਹੱਥ-ਟਿਊਨ ਰੂਟ ਤੋਂ ਬਾਹਰ ਕੰਮ ਕਰ ਸਕਦਾ ਹੈ?\n- Testing: ਤੁਸੀਂ ਵਰਤੋਂ ਵਿੱਚ ਮਿਲੇ ਸੈਮੀ-ਅਕਸੀਡੈਂਟਾਂ ਦੀ ਉਡੀਕ ਕੀਤੇ ਬਿਨਾਂ ਵਰਤਾਰਾ ਕਿਵੇਂ ਵੈਰੀਫਾਈ ਕਰੋਗੇ?\n\nਇਹ ਬਦਲਾਅ—ਭਰੋਸੇਯੋਗਤਾ ਸਾਬਤ ਕਰਨ ਲਈ ਕੁਸ਼ਲਤਾ ਦਿਖਾਉਣਾ—autonomy ਨੂੰ ਰੀਸਰਚ ਤੋਂ ਸੜਕਾਂ ਤੱਕ ਲਿਆਂਦਾ ਅਤੇ ਇਸ ਨੇ ਡੇਟਾ, ਸਿਮੂਲੇਸ਼ਨ, ਅਤੇ ਜ਼ਿੰਮੇਵਾਰੀ ਬਾਰੇ ਖੋਜ ਨੂੰ ਰੂਪ ਦਿੱਤਾ।
Self-driving cars ਕਿਸੇ ਵੀ AI ਸਿੱਖ ਰਹੇ ਲਈ ਇੱਕ ਅਮਲੀ ਜਾਂਚ ਹੈ: ਮਾਡਲ ਨੂੰ ਲੀਡਰਬੋਰਡ ਸਕੋਰ ਨਾਲ ਨਹੀਂ ਅੰਕਿਆ ਜਾਂਦਾ, ਸਗੋਂ ਇਸ ਨਾਲ ਕਿ ਇਹ ਗੰਦੇ, ਅਣਪਹਿਲੇ ਰਸਤੇ 'ਤੇ ਕਿਵੇਂ ਵਰਤਦਾ ਹੈ। Thrun ਦਾ ਕੰਮ ਇਹ ਵਿਚਾਰ ਪ੍ਰਸਿੱਧ ਕਰਨ ਵਿੱਚ ਮਦਦਗਾਰ ਸਾਬਤ ਹੋਇਆ ਕਿ “ਅਸਲ-ਦੁਨੀਆ” AI ਚਤੁਰ ਐਲਗੋਰਿਦਮ ਤੋਂ ਘੱਟ ਅਤੇ ਸੰਭਾਲ ਵਾਲੀ ਇੰਜੀਨੀਅਰਿੰਗ, ਟੈਸਟਿੰਗ, ਅਤੇ ਜ਼ਿੰਮੇਵਾਰੀ ਬਾਰੇ ਜ਼ਿਆਦਾ ਹੈ।
Autonomous driving ਸਟੈਕ ਬਹੁਤ ਸਾਰੇ ਹਿੱਸਿਆਂ ਨੂੰ ਜੋੜਦਾ ਹੈ: perception (ਲੇਨ, ਕਾਰਾਂ, ਪੈਦਲੀਆਂ ਦੇਖਣਾ), prediction (ਦੂਜੇ ਕੀ ਕਰਨਗੇ ਦਾ ਅਨੂਮਾਨ ਲਾਉਣਾ), planning (ਸੁਰੱਖਿਅਤ ਰਸਤਾ ਚੁਣਨਾ), ਅਤੇ control (ਸਟੇਅਰਿੰਗ/ਬਰੇਕਿੰਗ)। Machine learning perception ਅਤੇ ਕਦੇ-kਦੇ prediction ਵਿੱਚ ਸਭ ਤੋਂ ਮਜ਼ਬੂਤ ਹੈ, ਜਿੱਥੇ ਪੈਟਰਨ ਦੁਹਰਾਉਂਦੇ ਹਨ।
ਇਹ ਸਭ ਤੋਂ ਘੱਟ ਤਗੜਾ ਹੈ “ਨੋ-ਸਾਡਾ ਸਾਹਮਣੇ ਦਿੱਤਾ ਗਿਆ ਸਧਾਰਨ ਸਨਾਇਰ”: ਅਨਊਜ਼ੁਅਲ ਨਿਰਮਾਣ, ਅਸਪਸ਼ਟ ਹੰਥ-ਸੰਕੇਤ, ਕਿਸੇ ਟਰੱਕ ਦੇ ਪਿੱਛੇੋਂ ਉੱਠਣ ਵਾਲਾ ਪੈਦਲ, ਜਾਂ ਇੱਕ ਪੁਲਿਸ ਅਧਿਕਾਰੀ ਜੋ ਟ੍ਰੈਫਿਕ ਨੂੰ ਮੁੜ-ਨਿਰਦੇਸ਼ਤ ਕਰ ਰਿਹਾ ਹੋਵੇ। ਇੱਕ self-driving ਸਿਸਟਮ ਇੱਕ ਸਥਿਤੀ ਨੂੰ ਧਿਆਨ ਤੱਕ confident ਲੱਗ ਸਕਦਾ ਹੈ ਜਦ ਤੱਕ ਉਹ ਕਿਸੇ ਐਸੀ ਸਥਿਤੀ ਨਾਲ ਨਹੀਂ ਮਿਲਦਾ ਜੋ ਉਸਨੇ ਸਿੱਖੀ ਨਹੀਂ ਹੁੰਦੀ।
ਡ੍ਰਾਈਵਿੰਗ ਵਿੱਚ ਐਨੇਕ ਰੇਅਰ ਇਵੈਂਟਸ ਹਨ। ਮੁਕੱਦਮੇ ਦਾ ਮਸਲਾ ਸਿਰਫ਼ ਕਾਫ਼ੀ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨਾ ਨਹੀਂ—ਇਹ ਸੁਰੱਖਿਆ ਸਾਬਤ ਕਰਨ ਦਾ ਹੈ।\n\nਇੱਕ ਸਿਸਟਮ ਮਿਲੀਅਨ ਮੀਲ ਚਲਾ ਕੇ ਵੀ ਇਕ ਬਾਰ-ਇਨ-ਮਿਲੀਅਨ ਸਥਿਤੀ ਵਿੱਚ ਫੇਲ ਹੋ ਸਕਦਾ ਹੈ। ਇਸੀ ਲਈ ਟੀਮਾਂ ਸਿਮੂਲੇਸ਼ਨ, ਸੀਨੇਰੀਓ ਲਾਇਬ੍ਰੇਰੀਜ਼, redundancy (ਕਈ ਸੈਂਸਰ ਅਤੇ ਚੈੱਕ), ਅਤੇ ਸੁਰੱਖਿਆ-ਕੇਂਦਰਤ ਮੈਟਰਿਕਸ 'ਤੇ ਨਿਰਭਰ ਕਰਦੀਆਂ ਹਨ—ਸਿਰਫ਼ “ਅਕੁਰੇਸੀ” ਨਹੀਂ।ਟੈਸਟਿੰਗ ਆਪਣੀ ਆਪ ਵਿੱਚ ਇੱਕ ਉਤਪਾਦ ਬਣ ਜਾਂਦੀ ਹੈ।
ਅਸਲ autonomy ਕਠੋਰ ਨਿਯਮਾਂ ਅਤੇ ਸਿੱਖੇ ਹੋਏ ਵਰਤਾਰੇ ਦੇ ਦਰਮਿਆਨ ਬੈਠਦੀ ਹੈ। ਟ੍ਰੈਫਿਕ ਕਾਨੂੰਨ ਮਨੁੱਖਾਂ ਲਈ ਲਿਖੇ ਜਾਂਦੇ ਹਨ, ਰੋਡ ਸ਼ਿਸ਼ਟाचार ਸ਼ਹਿਰ ਦੇ ਮੁਤਾਬਕ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ, ਅਤੇ “ਉਚਿਤ” ਫੈਸਲੇ ਸੰਦਰਭ-ਨਿਰਭਰ ਹੋ ਸਕਦੇ ਹਨ। ਸਿਸਟਮਾਂ ਨੂੰ ਨਿਯਮਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ, ਲੋਕਾਂ ਦੇ ਨਿਯਮ-ਭੰਗ ਦੀ ਅਗਵਾਈ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ, ਅਤੇ ਫਿਰ ਵੀ ਐਸੇ ਤਰੀਕੇ ਨਾਲ ਵਰਤਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਮਨੁੱਖ ਅਨੁਮਾਨ ਕਰ ਸਕਣ।
AI ਬਣਾਉਣ ਵਾਲਿਆਂ ਅਤੇ ਸਿੱਖਣ ਵਾਲਿਆਂ ਲਈ ਨੁਕਸਾਨ: ਸਭ ਤੋਂ ਔਖਾ ਹਿੱਸਾ ਅਕਸਰ ਮਾਡਲ ਟ੍ਰੇਨ ਕਰਨਾ ਨਹੀਂ ਹੁੰਦਾ। ਇਹ ਹੱਦਾਂ ਨਿਰਧਾਰਤ ਕਰਨਾ, ਅਣਸਫਲਤਾ ਨੂੰ ਨਰਮ ਢੰਗ ਨਾਲ ਸੰਭਾਲਣਾ, ਅਤੇ ਦੁਨੀਆ ਨੂੰ ਉਸੇ ਤਰ੍ਹਾਂ ਡਿਜ਼ਾਈਨ ਕਰਨਾ ਹੈ ਜਿਵੇਂ ਉਹ ਹੈ, ਨਾ ਕਿ ਜਿਵੇਂ ਡੇਟਾਸੇਟ ਦਿਖਾਉਂਦਾ ਹੈ।
ਆਟੋਨੋਮਸ ਵਾਹਨਾਂ ਦੇ ਫਰੰਟਿਯਰ 'ਤੇ ਕੰਮ ਕਰਨ ਤੋਂ ਬਾਅਦ, Sebastian Thrun ਨੂੰ ਇੱਕ ਵੱਖਰਾ ਬੋਟਲਨੇਕ ਮਿਲਿਆ: ਟੈਲੈਂਟ। ਕੰਪਨੀਆਂ ਉਹ ਇੰਜੀਨੀਅਰ ਚਾਹੁੰਦੀਆਂ ਸਨ ਜੋ ਅਸਲ ਸਿਸਟਮ ਬਣਾ ਸਕਣ, ਪਰ ਬਹੁਤ ਸਾਰੇ ਉਤਸਾਹੀ ਸਿੱਖਣ ਵਾਲੇ ਉੱਚ ਯੂਨੀਵਰਸਿਟੀ ਪ੍ਰੋਗਰਾਮ ਤੱਕ ਪਹੁੰਚ ਨਹੀਂ ਰੱਖਦੇ ਸਨ—ਜਾਂ ਆਪਣੀ ਜ਼ਿੰਦਗੀ ਰੋਕ ਕੇ ਉਹਨਾਂ ਵਿੱਚ ਭਾਗ ਨਹੀਂ ਲੈ ਸਕਦੇ।
Udacity ਦੀ ਸਥਾਪਨਾ ਦੋ ਗੈਪ ਇਕੱਠੇ ਘਟਾਉਣ ਲਈ ਹੋਈ: ਉੱਚ-ਗੁਣਵੱਤਾ ਵਾਲੀ ਤਕਨੀਕੀ ਸਿੱਖਿਆ ਤੱਕ ਪਹੁੰਚ, ਅਤੇ ਨੌਕਰੀ-ਤਿਆਰ ਹੁਨਰਾਂ ਲਈ ਇੱਕ ਰਸਤਾ। ਵਿਚਾਰ ਇਹ ਨਹੀਂ ਸੀ ਕਿ “ਆਨਲਾਈਨ ਲੈਕਚਰ ਵੇਖੋ।” ਇਹ ਸਿੱਖਣ ਨੂੰ ਸਾਫ਼, ਪ੍ਰਯੋਗ-ਕੇਂਦਰਤ ਕਦਮਾਂ ਵਿੱਚ ਪੈਕੇਜ ਕਰਨਾ ਸੀ—ਪ੍ਰੋਜੈਕਟ, ਫੀਡਬੈਕ, ਅਤੇ ਉਹ ਹੁਨਰ ਜੋ ਨੌਕਰੀਦਾਤਾ ਆਮ ਤੌਰ 'ਤੇ ਲੱਭਦੇ ਹਨ।
ਇਹ ਧਿਆਨ ਮਹੱਤਵਪੂਰਨ ਸੀ ਕਿਉਂਕਿ AI ਅਤੇ ਸੌਫਟਵੇਅਰ ਭੂਮਿਕਾਵਾਂ ਯਾਦਸ਼ ਤੋਂ ਨਹੀਂ ਸਿੱਖੀਆਂ ਜਾਂਦੀਆਂ। ਉਹ ਬਣਾਕੇ, ਡੀਬੱਗ ਕਰਕੇ, ਅਤੇ ਦੁਹਰਾਕੇ ਸਿੱਖੀਆਂ ਜਾਂਦੀਆਂ ਹਨ—ਉਹੀ ਆਦਤਾਂ ਜੋ Thrun ਨੇ ਰੀਸਰਚ ਲੈਬਾਂ ਅਤੇ ਪ੍ਰੋਡਕਟ ਟੀਮਾਂ ਵਿੱਚ ਵੇਖੀਆਂ।
Udacity ਦੀ ਸ਼ੁਰੂਆਤੀ ਗਤੀਵੀਧੀ ਇੱਕ ਸਧਾਰਨ ਅਹਿਸਾਸ 'ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਸੀ: ਵਧੀਆ ਸਿੱਖਿਆ ਸਕੇਲ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕੋਰਸ ਖੁਲ੍ਹੇ ਅਤੇ ਸ਼ੁਰੂ ਕਰਨ ਲਈ ਆਸਾਨ ਹੋ ਗਏ, ਉਹਨਾਂ ਨੇ ਉਨ੍ਹਾਂ ਸਿੱਖਣ-ਚਾਹੁਣ ਵਾਲਿਆਂ ਨੂੰ ਆਕਰਸ਼ਿਤ ਕੀਤਾ ਜੋ ਭੂਗੋਲ, ਲਾਗਤ, ਜਾਂ ਦਾਖ਼ਲਾ ਫਿਲਟਰਾਂ ਕਾਰਣ ਬਾਹਰ ਰਹਿ ਗਏ ਸਨ।
ਦੂਜਾ ਚਾਲਕ ਸਮਾਂ ਸੀ। ਪ੍ਰੋਗ੍ਰਾਮਿੰਗ ਅਤੇ AI ਵਿੱਚ ਦਿਲਚਸਪੀ ਤੇਜ਼ੀ ਨਾਲ ਵੱਧ ਰਹੀ ਸੀ, ਅਤੇ ਲੋਕ ਢਾਂਚਾਬੱਧ ਤਰੀਕਾ ਖੋਜ ਰਹੇ ਸਨ। ਆਨਲਾਈਨ ਕੋਰਸਾਂ ਨੇ ਜੋਖਮ ਘਟਾਇਆ: ਤੁਸੀਂ ਕੋਈ ਵਿਸ਼ਾ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹੋ, ਤੇਜ਼ੀ ਨਾਲ ਤਰੱਕੀ ਵੇਖ ਸਕਦੇ ਹੋ, ਅਤੇ ਫੈਸਲਾ ਕਰ ਸਕਦੇ ਹੋ ਕਿ ਅੱਗੇ ਜਾਣਾ ਹੈ ਜਾਂ ਨਹੀਂ।
MOOC ਦਾ ਮਤਲਬ ਹੈ “Massive Open Online Course.” ਸਾਦੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਇਹ ਇੱਕ ਆਨਲਾਈਨ ਕਲਾਸ ਹੈ ਜੋ ਬਹੁਤ ਵੱਡੇ ਨੰਬਰ ਦੇ ਵਿਦਿਆਰਥੀਆਂ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਰੋਜ਼ਾਨਾ ਰੁਕਾਵਟਾਂ ਘੱਟ ਹੋਣ ਅਤੇ ਕਈ ਵਾਰੀ ਘੱਟ ਲਾਗਤ ਜਾਂ ਮੁਫ਼ਤ ਸ਼ੁਰੂਆਤ ਵਾਲੀ। “Massive” ਦਾ ਅਰਥ ਹਜ਼ਾਰਾਂ (ਕਈ ਵਾਰੀ ਲੱਖਾਂ) ਦੀ ਭਰਤੀ ਹੋਣਾ ਹੈ। “Open” ਅਕਸਰ ਘੱਟ-ਲਾਗਤ ਜਾਂ ਮੁਫ਼ਤ ਸ਼ੁਰੂ ਕਰਨ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। “Online course” ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਤੁਸੀਂ ਕਿਤੇ ਵੀ, ਆਪਣੇ ਸਮੇਂ ਤੇ ਸਿੱਖ ਸਕਦੇ ਹੋ।
MOOCs ਨੇ ਤੀਨ ਚੀਜ਼ਾਂ ਨੂੰ ਮਿਲਾ ਕੇ ਲੋਕਾਂ ਦੀਆਂ ਕਮਿਆਬੀਆਂ ਹਾਸਲ ਕੀਤੀਆਂ: ਭਰੋਸੇਯੋਗ ਅਧਿਆਪਕ, ਲਚਕਦਾਰ ਰਫਤਾਰ, ਅਤੇ ਇੱਕ ਸਿੱਖਣ ਵਾਲਿਆਂ ਦੀ ਕਮਿਉਨਿਟੀ ਜੋ ਇਕੱਠੇ ਸਮੱਗਰੀ ਵਿੱਚ ਅੱਗੇ ਵੱਧ ਰਹੀ ਹੋਵੇ।
Udacity ਸ਼ੁਰੂ ਵਿੱਚ early MOOCs ਦੀ ਉਮੀਦ ਨਾਲ ਆਇਆ: ਵਰਲਡ-ਕਲਾਸ ਅਧਿਆਪਕ, ਖੁੱਲ੍ਹੀ ਭਰਤੀ, ਅਤੇ ਕੋਈ ਵੀ ਜਿੱਥੇੋਂ ਭੀ ਪੜ੍ਹ ਸਕਦਾ ਸੀ। ਵਾਅਦਾ ਸੀ——ਉੱਚ-ਗੁਣਵੱਤਾ ਸਮੱਗਰੀ ਆਨਲਾਈਨ ਰੱਖੋ ਅਤੇ ਜਿਗਿਆਸਾ ਸਕੇਲ ਹੋ ਜਾਵੇ।
ਵਕਤ ਦੇ ਨਾਲ, “ਮੁਫ਼ਤ ਵੀਡੀਓ + ਕੁਇਜ਼” ਦੀਆਂ ਹੱਦਾਂ ਸਪਸ਼ਟ ਹੋ ਗਈਆਂ। ਬਹੁਤ ਸਾਰੇ ਸਿੱਖਣ ਵਾਲੇ ਸਮੱਗਰੀ ਦਾ ਆਨੰਦ ਲੈਂਦੇ ਸਨ, ਪਰ ਘੱਟ ਹਿੱਸਾ ਖਤਮ ਕਰਦਾ ਸੀ। ਅਤੇ ਜਿਹੜੇ ਖਤਮ ਕਰਦੇ ਵੀ, ਉਹਨਾਂ ਲਈ ਸਰਟੀਫਿਕੇਟ ਆਮ ਤੌਰ 'ਤੇ ਨੌਕਰੀ ਦੀ ਪੇਸ਼ਕਸ਼ ਵਿੱਚ ਬਦਲ ਨਹੀਂ ਹੁੰਦਾ ਸੀ। ਨੌਕਰੀਦਾਤਾ ਸਿਰਫ਼ ਇਹ ਨਹੀਂ ਚਾਹੁੰਦੇ ਕਿ ਤੁਸੀਂ ਲੈਕਚਰ ਦੇਖੇ ਹੋ; ਉਹ ਸਬੂਤ ਚਾਹੁੰਦੇ ਹਨ ਕਿ ਤੁਸੀਂ ਅਸਲ ਕੰਮ ਕਰ ਸਕਦੇ ਹੋ।
ਪੇਸ਼ੇਵਰ ਧਿਆਨ-ਨੁਮੇ ਪ੍ਰੋਗਰਾਮਾਂ ਵੱਲ ਮੋੜ ਕੇ Udacity ਸਿਰਫ ਕਾਰੋਬਾਰੀ ਫੈਸਲਾ ਨਹੀਂ ਕੀਤਾ—ਇਹ ਸਿੱਖਣ ਵਾਲਿਆਂ ਦੀ ਮੰਗ ਦਾ ਜਵਾਬ ਸੀ: ਢਾਂਚਾ, ਜ਼ਿੰਮੇਵਾਰੀ, ਅਤੇ ਸਪਸ਼ਟ ਨਤੀਜੇ।
ਮੁਫ਼ਤ ਕੋਰਸ ਖੋਜ ਲਈ ਵਧੀਆ ਹਨ, ਪਰ ਕਰੀਅਰ ਬਦਲਣ ਵਾਲਿਆਂ ਨੂੰ ਅਕਸਰ ਇੱਕ ਨੇਤෘਤਵ ਰਸਤਾ ਚਾਹੀਦਾ:
ਇਹੀ ਉਹ ਜਗ੍ਹਾ ਸੀ ਜਿੱਥੇ Udacity ਨੇ ਕੰਪਨੀਆਂ ਨਾਲ ਭਾਜੀਦਾਰੀਆਂ ਅਤੇ ਰੋਲ-ਅਧਾਰਤ ਟ੍ਰੇਨਿੰਗ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ, ਜਿਸਦਾ ਮਕਸਦ ਸਿੱਖਣ ਨੂੰ ਨੌਕਰੀਯੋਗਤਾ ਨਾਲ ਜੁੜਨਾ ਸੀ।
Udacity ਦਾ nanodegree ਦਿਵਾਨਾ ਸਿੱਖਣ ਨੂੰ ਇਕ ਜੌਬ-ਉਦੇਸ਼ੀ ਪ੍ਰੋਗਰਾਮ ਵਾਂਗ ਪੈਕੇਜ ਕਰਦਾ ਹੈ। ਲਕੜੀ ਦਾ ਲਕਸ਼: “ਮੈਂ ਕੰਮ ਕਰ ਸਕਦਾ/ਸਕਦੀ” ਨੂੰ ਦਿਖਾਉਣਾ।
Nanodegree ਆਮ ਤੌਰ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ:\n\n- ਪ੍ਰੋਜੈਕਟ ਜੋ ਹੱਥ-ਲਗੀ ਚੀਜ਼ਾਂ ਦਿੰਦੇ ਹਨ (ਉਦਾਹਰਣ ਵਜੋਂ, ਇਕ ਮਾਡਲ, ਇਕ ਵਿਸ਼ਲੇਸ਼ਣ ਨੋਟਬੁੱਕ, ਇਕ ਡਿਪਲੌਏਡ ਐਪ, ਜਾਂ ਇਕ GitHub ਪੋਰਟਫੋਲਿਓ)\n- ਫੀਡਬੈਕ ਲੂਪ—ਸਮੀਖਿਆ, ਰੂਬਰਿਕਸ, ਅਤੇ ਦੁਹਰਾਈ—ਤਾਂ ਜੋ ਸਿੱਖਣ ਵਾਲੇ ਗਲਤੀਆਂ ਵਿੱਚ ਅਲੋਕੇਟ ਨਾ ਰਹਿ ਜਾਣ\n- ਨਤੀਜਿਆਂ ਦੀ ਫ੍ਰੇਮਿੰਗ, ਜਿੱਥੇ ਹੁਨਰ ਨੂੰ ਨਿਰਧਾਰਤ ਰੋਲਾਂ (ਡੇਟਾ ਐਨਾਲਿਸਟ, ML ਇੰਜੀਨੀਅਰ, autonomous systems, ਆਦਿ) ਨਾਲ ਨਕਸ਼ਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ\n\nਸਰਲ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਇਹ apprenticeship ਦੇ ਕੁਝ ਹਿੱਸਿਆਂ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ: ਇੱਕ ਸੰਕਲਪ ਸਿੱਖੋ, ਲਾਗੂ ਕਰੋ, ਸਮੀਖਿਆ ਪ੍ਰਾਪਤ ਕਰੋ, ਸੁਧਾਰ ਕਰੋ।
ਇਸ ਬਦਲਾਅ ਨੇ ਅਸਲੀ ਫਾਇਦੇ ਲਏ, ਪਰ ਕੁਝ ਸਮਝੌਤੇ ਵੀ ਲਏ।
ਸਿੱਖਣ ਪਾਸੇ, ਕਰੀਅਰ ਪ੍ਰੋਗਰਾਮ ਜ਼ਿਆਦਾ ਪ੍ਰਯੋਗਿਕ ਹੋ ਸਕਦੇ ਹਨ—ਪਰ ਕਦਾਚਿਤ ਤੰਗ ਵੀ ਹੋ ਸਕਦੇ ਹਨ। ਇਕ ਫੋਕਸਡ ਕੈਰਿਕੁਲਮ ਤੁਹਾਨੂੰ “ਨੌਕਰੀ-ਤਿਆਰ” ਤੇ ਤੇਜ਼ੀ ਨਾਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ, ਪਰ ਡੂੰਘੀ ਸਿਧਾਂਤ ਜਾਂ ਵਿਸ਼ਾਲ ਖੋਜ ਲਈ ਘੱਟ ਥਾਂ ਛੱਡ ਸਕਦਾ ਹੈ।
ਕਾਰੋਬਾਰੀ ਪਾਸੇ, ਪ੍ਰੋਜੈਕਟ ਸਮੀਖਿਆ ਅਤੇ ਸਹਿਯੋਗ ਗੁਣਵੱਤਾ ਵਧਾਉਂਦੇ ਹਨ ਪਰ ਸਕੇਲ ਨੂੰ ਘਟਾਉਂਦੇ ਹਨ। ਇੱਕ ਮੁਫ਼ਤ MOOC ਸਸਤੇ ਢੰਗ ਨਾਲ ਮਿਲੀਅਨਾਂ ਨੂੰ ਸੇਵਾ ਦੇ ਸਕਦਾ ਹੈ; ਅਰਥਪੂਰਨ ਫੀਡਬੈਕ ਮਹਿੰਗਾ ਹੁੰਦਾ ਹੈ, ਇਸਕਾਰਨ nanodegrees ਪ੍ਰੋਫੈਸ਼ਨਲ ਟਰੇਨਿੰਗ ਵਾਂਗ ਕੀਮਤ ਰੱਖਦੇ ਹਨ।
Udacity ਦੇ ਇਸ ਰੁਝਾਨ ਦਾ ਵੱਡਾ ਸਬਕ ਇਹ ਹੈ ਕਿ ਪਹੁੰਚਯੋਗਤਾ ਸਿਰਫ ਕੀਮਤ ਬਾਰੇ ਨਹੀਂ। ਇਹ ਇਸ ਬਾਰੇ ਵੀ ਹੈ ਕਿ ਸਿੱਖਣ ਵਾਲਿਆਂ ਨੂੰ ਖਤਮ ਕਰਨ, ਅਸਲ ਚੀਜ਼ ਬਣਾਉਣ, ਅਤੇ ਕੋਸ਼ਿਸ਼ ਨੂੰ ਮੌਕੇ ਵਿੱਚ ਬਦਲਣ ਵਿੱਚ ਮਦਦ ਕਿਵੇਂ ਮਿਲਦੀ ਹੈ।
Sebastian Thrun ਦਾ autonomy ਤੋਂ sਿੱਖਿਆ ਵੱਲ ਮੋੜ ਇੱਕ ਨਿਰਪੱਖ ਸੱਚਾਈ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ: ਜ਼ਿਆਦਾਤਰ ਲੋਕ AI ਵਿੱਚ ਫੇਲ ਨਹੀਂ ਹੁੰਦੇ ਕਿਉਂਕਿ ਉਹਨਾਂ ਕੋਲ ਟੈਲੈਂਟ ਨਹੀਂ—ਉਹ ਫੇਲ ਹੁੰਦੇ ਹਨ ਕਿਉਂਕਿ ਸਿੱਖਣ ਦਾ ਰਸਤਾ ਧੁੰਦਲਾ ਹੁੰਦਾ ਹੈ। ਸਪਸ਼ਟ ਨਤੀਜੇ, ਟਾਈਟ ਫੀਡਬੈਕ ਲੂਪ, ਅਤੇ ਅਸਲ ਆਰਟੀਫੈਕਟ੍ਹਾਂ "ਸਭ ਕੁਝ ਕਵਰ ਕਰਨ" ਤੋਂ ਜ਼ਿਆਦਾ ਮਹੱਤਵਪੂਰਨ ਹਨ।
ਗਣਿਤ ਦੀ ਚਿੰਤਾ ਆਮ ਤੌਰ 'ਤੇ ਸਿਧਾਂਤ ਨੂੰ ਅਲੱਗ ਤੌਰ ਤੇ ਸਿੱਖਣ ਕਾਰਨ ਹੁੰਦੀ ਹੈ। ਇੱਕ ਵਧੀਆ ਪੈਟਰਨ ਹੈ “just-in-time math”: ਲੰਨੀਅਰ ਐਲਜੀਬਰ ਜਾਂ ਪ੍ਰਾਬਬਿਲਿਟੀ ਦਾ ਉਹ ਨਿਆਮਾਂਮਾਤਮਕ ਹਿੱਸਾ ਜਿਹੜਾ ਇੱਕ ਮਾਡਲ ਨੂੰ ਸਮਝਣ ਲਈ ਲੋੜੀਦਾ ਹੈ, ਫਿਰ ਤੁਰੰਤ ਉਸ ਨੂੰ ਲਾਗੂ ਕਰੋ। ਜਦੋਂ ਤੁਸੀਂ ਵੇਖੋ ਕਿ ਲਾਸ ਫੰਕਸ਼ਨ ਕੀ ਕਰਦਾ ਹੈ ਅਤੇ ਉਹ ਘੱਟ ਹੋ ਰਿਹਾ ਹੈ ਤਾਂ ਭਰੋਸਾ ਵਧਦਾ ਹੈ।
ਟੂਲਿੰਗ ਓਵਰਲੋਡ ਇੱਕ ਹੋਰ ਫੰਦ ਹੈ। ਸ਼ੁਰੂਆਤੀ ਵਿਦਿਆਰਥੀ ਨੋਟਬੁੱਕ, ਫਰੇਮਵਰਕ, GPUs, ਅਤੇ MLOps buzzwords ਦੇ ਵਿਚਕਾਰ ਝਪਟਦੇ ਹਨ। ਇਕ ਸਟੈਕ (ਉਦਾਹਰਣ ਲਈ Python + ਇੱਕ deep learning ਲਾਇਬ੍ਰੇਰੀ) ਨਾਲ ਸ਼ੁਰੂ ਕਰੋ ਅਤੇ ਜਦ ਤੱਕ ਅਸਲੀ ਸੀਮਾ ਨਾ ਆਵੇ, ਬਾਕੀ ਨੂੰ ਵਿਕਲਪਿਕ ਸਮਝੋ।
ਅਸਪਸ਼ਟ ਲਕਸ਼ ਪ੍ਰੇਰਣਾ ਨੂੰ ਡਿਗਾ ਦਿੰਦੇ ਹਨ। “AI ਸਿੱਖੋ” ਧੁੰਦਲਾ ਹੈ; “ਸਪੋਰਟ ਟਿਕਟਾਂ ਨੂੰ ਵਰਗੀਕ੍ਰਿਤ ਕਰਨ ਵਾਲਾ ਇੱਕ ਕਲਾਸੀਫਾਇਰ ਬਣਾਓ” ਸਪਸ਼ਟ ਹੈ। ਲਕਸ਼ ਨੂੰ ਡੈਟਾਸੇਟ, ਮੁਲਾਂਕਣ ਮੈਟਰਿਕ, ਅਤੇ ਇੱਕ ਸਾਂਝਾ ਡੈਮੋ ਨਾਲ ਨਿਰਧਾਰਤ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ।
ਪ੍ਰੋਜੈਕਟ ਇਸ ਲਈ ਕੰਮ ਕਰਦੇ ਹਨ ਕਿਉਂਕਿ ਉਹ ਫੈਸਲੇ ਕਰਨ ਨੂੰ ਮਜਬੂਰ ਕਰਦੇ ਹਨ: ਡੇਟਾ ਸਾਫ਼-ਸੁਥਰਾ ਕਰਨਾ, ਬੇਸਲਾਈਨ ਮਾਡਲ, ਮੁਲਾਂਕਣ, ਅਤੇ ਦੁਹਰਾਈ। ਇਹ ਉਸ ਤਰ੍ਹਾਂ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ ਜਿਹੜੀ ਕਲਾਸਰੂਮ ਤੋਂ ਬਾਹਰ AI ਬਣਾਉਣ ਲਈ ਲੋੜੀਦੀ ਹੈ।
ਪਰ ਪ੍ਰੋਜੈਕਟ ਕੰਮ ਨਹੀਂ ਕਰਦੇ ਜਦੋਂ ਉਹ copy-paste ਅਭਿਆਸਾਂ ਵਿੱਚ ਜਾ ਪੈਂਦੇ ਹਨ। ਜੇ ਤੁਸੀਂ ਆਪਣੇ ਫੀਚਰਾਂ, train/validation split, ਜਾਂ ਇੱਕ ਮਾਡਲ ਨੇ ਦੂਜੇ ਨੂੰ ਕਿਉਂ ਹਰਾਇਆ—ਇਹ ਸਭ ਬਿਆਨ ਨਹੀਂ ਕਰ ਸਕਦੇ, ਤਾਂ ਤੁਸੀਂ ਸਿੱਖਿਆ ਨਹੀਂ ਕੀਤੀ—ਤੁਹਾਡਾ ਕੋਡ صرف ਚਲਿਆ। ਚੰਗੇ ਪ੍ਰੋਜੈਕਟ ਛੋਟੇ ਲਿਖਤ-ਸਮੇਂ, ablations (“ਜੇ ਮੈਂ ਇਹ ਫੀਚਰ ਹਟਾ ਦਿਆਂ ਤਾਂ ਕੀ ਹੁੰਦਾ?”), ਅਤੇ error analysis ਸ਼ਾਮਿਲ ਕਰਦੇ ਹਨ।
ਪ੍ਰੋਜੈਕਟ ਨੂੰ ਰੁਕਣ ਤੋਂ ਬਚਾਉਣ ਲਈ ਇਕ ਪ੍ਰਯੋਗਿਕ ਤਰੀਕ ਇਹ ਹੈ ਕਿ “ship” ਕਦਮ ਨੂੰ ਸਪਸ਼ਟ ਬਣਾਇਆ ਜਾਵੇ। ਉਦਾਹਰਣ ਵੱਜੋਂ, ਤੁਸੀਂ ਇਕ ਮਾਡਲ ਨੂੰ ਇਕ ਸਧਾਰਣ ਵੈੱਬ ਐਪ ਵਿੱਚ ਰੈਪ ਕਰ ਸਕਦੇ ਹੋ ਜਿਸ ਵਿੱਚ ਲੋਗਿੰਗ ਅਤੇ ਫੀਡਬੈਕ ਫਾਰਮ ਹੋਵੇ, ਤਾਂ ਜੋ ਤੁਸੀਂ ਮਾਨੀਟਰਿੰਗ ਅਤੇ ਦੁਹਰਾਈ ਸਿੱਖੋ—ਸਿਰਫ ਟ੍ਰੇਨਿੰਗ ਨਹੀਂ। Koder.ai ਵਰਗੇ ਪਲੇਟਫਾਰਮ ਇਸ ਥਾਂ ਤੇ ਮਦਦਗਾਰ ਹੋ ਸਕਦੇ ਹਨ: ਤੁਸੀਂ ਚੈਟ ਵਿੱਚ ਐਪ ਦਾ ਵੇਰਵਾ ਦੇਕੇ React frontend ਅਤੇ Go + PostgreSQL backend ਜਨਰੇਟ ਕਰ ਸਕਦੇ ਹੋ, ਫਿਰ ਸੋਰਸ ਕੋਡ ਐਕਸਪੋਰਟ ਜਾਂ ਡਿਪਲੌਇ ਕਰ ਸਕਦੇ ਹੋ, ਜੋ ਨੋਟਬੁੱਕ ਨੂੰ ਟੈਸਟੇਬਲ ਚੀਜ਼ ਵਿੱਚ ਬਦਲਣਾ ਆਸਾਨ ਬਣਾਉਂਦਾ ਹੈ।
ਜਦ ਤੱਕ ਤਰੱਕੀ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ, ਪ੍ਰੇਰਣਾ ਆਸਾਨ ਹੁੰਦੀ ਹੈ। ਇਕ ਸਧਾਰਨ ਲਾਗ ਰੱਖੋ:\n\n- ਇੱਕ ਸਾਪਤਾਹਿਕ ਡਿਲਿਵਰੇਬਲ (ਇੱਕ ਚਾਰਟ, ਮੈਟਰਿਕ, ਜਾਂ ਛੋਟਾ ਡੈਮੋ)\n- ਇੱਕ ਬੇਸਲਾਈਨ ਸਕੋਰ ਅਤੇ ਇੱਕ ਟਾਰਗਟ ਸਕੋਰ\n- ਤਿੰਨ “ਅਗਲੇ ਪ੍ਰਯੋਗ” ਜੋ ਤੁਸੀਂ ਇਕ ਘੰਟੇ ਤੋਂ ਘੱਟ ਵਿੱਚ ਚਲਾ ਸਕਦੇ ਹੋ\n\nਤਰੱਕੀ ਨੂੰ ਸਮੇਂ ਨਾਲ ਨਹੀਂ—ਨਤੀਜਿਆਂ ਨਾਲ ਮਾਪੋ: ਕੀ ਤੁਸੀਂ ਨਤੀਜੇ ਦੁਹਰਾ ਸਕਦੇ ਹੋ, ਤਰਕ ਸਮਝਾ ਸਕਦੇ ਹੋ, ਅਤੇ ਇਕ ਛੋਟਾ ਮਾਡਲ end-to-end ਸ਼ਿਪ ਕਰ ਸਕਦੇ ਹੋ? ਇੱਕ ਢਾਂਚਾਬੱਧ ਰਸਤੇ ਲਈ, ਦੇਖੋ /blog/ai-learning-paths।
Sebastian Thrun ਦਾ autonomy ਤੋਂ Udacity ਵੱਲ ਰੁਝਾਨ ਇੱਕ ਸਧਾਰਣ ਸੱਚਾਈ ਨੂੰ ਰੋਸ਼ਨ ਕਰਦਾ ਹੈ: ਸਭ ਤੋਂ ਵਧੀਆ ਟੈਕ ਸਿੱਖਿਆ ਅਸਲ ਕੰਮ ਦੇ ਨੇੜੇ ਰਹਿੰਦੀ ਹੈ—ਪਰ ਇੰਨੀ ਨੇੜੇ ਨਹੀਂ ਕਿ ਇਹ ਇੱਕ ਛੋਟਾ-ਕਾਲੀ ਟ੍ਰੇਨਿੰਗ ਮੈਨੁਅਲ ਬਣ ਜਾਵੇ।
ਜਦੋਂ ਉਦਯੋਗੀ ਲੋੜਾਂ ਬਦਲਦੀਆਂ ਹਨ, ਕੋਰਸ ਵਿਚਾਰ ਵੀ ਬਦਲਣੇ ਚਾਹੀਦੇ ਹਨ। Self-driving ਰੀਸਰਚ ਨੇ ਟੀਮਾਂ ਨੂੰ perception, data pipelines, testing, ਅਤੇ deployment ਵਿੱਚ ਨਿਪੁੰਨ ਕਰਨਾ ਸਿਖਾਇਆ—ਸਿਰਫ਼ ਚਤੁਰ ਮਾਡਲ ਨਹੀਂ। ਸਿੱਖਿਆ ਇਸਨੂੰ end-to-end ਸਮਰਥਾ ਦੇ ਆਸਪਾਸ ਯੋਜਨਾ ਕਰ ਸਕਦੀ ਹੈ: ਡੇਟਾ ਇਕੱਠਾ ਅਤੇ ਲੇਬਲਿੰਗ, ਮੈਟਰਿਕਸ ਚੁਣਨਾ, ਐਡਜ ਕੇਸ ਸੰਭਾਲਣਾ, ਅਤੇ ਨਤੀਜਿਆਂ ਨੂੰ ਸੰਚਾਰ ਕਰਨਾ।
ਇੱਕ ਚੰਗਾ ਕਰੀਕੁਲਮ ਹਰ ਨਵੇਂ ਮਾਡਲ ਦੇ ਨਾਂ ਦਾ ਪਿੱਛਾ ਨਹੀਂ ਕਰਦਾ। ਇਹ ਟਿਕਾਉ “ਕੰਮ ਨਤੀਜੇ” ਦਾ ਪਿੱਛਾ ਕਰਦਾ ਹੈ: ਇੱਕ ਮਾਡਲ ਜੋ ਕਾਰੋਬਾਰਕ ਮੈਟਰਿਕ ਨੂੰ ਸੁਧਾਰਦਾ ਹੈ, ਇੱਕ ਸਿਸਟਮ ਜੋ ਮਾਨੀਟਰ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਇੱਕ تجربਾ ਜੋ ਦੁਹਰਾਇਆ ਜਾ ਸਕੇ।
ਉਦਯੋਗ Videos ਦੇਖਨ ਨੂੰ ਇਨਾਮ ਨਹੀਂ ਦਿੰਦਾ; ਸ਼ਿਪ ਕਰਨ ਨੂੰ ਇਨਾਮ ਦਿੰਦਾ ਹੈ। ਸਿੱਖਿਆ ਦਾ ਸਭ ਤੋਂ ਨੇੜਾ ਸਮਾਨ feedback ਲੂਪ ਹਨ:\n\n- Mentorship ਅਤੇ ਕੋਡ/ਪ੍ਰੋਜੈਕਟ ਸਮੀਖਿਆਵਾਂ ਜੋ ਅੰਧਲੇ ਪਾਸਿਆਂ ਨੂੰ ਦਿਖਾਉਂਦੀਆਂ ਹਨ ("ਤੁਹਾਡੇ ਡੇਟਾਸੇਟ ਵਿੱਚ label leak ਹੈ", "ਤੁਹਾਡਾ ਮੁਲਾਂਕਣ ਬਹੁਤ ਆਸਾਨ ਹੈ")।\n- ਅਸਲ ਪ੍ਰੋਜੈਕਟ ਜਿਨ੍ਹਾਂ ਵਿੱਚ ਸੀਮਾਵਾਂ ਹਨ (ਸੀਮਤ ਡੇਟਾ, ਗੰਦੇ ਇਨਪੁੱਟ, ਡੈਡਲਾਈਨ) ਜਿੱਥੇ ਤੁਹਾਨੂੰ ਟ੍ਰੇਡ-ਆਫ ਕਰਨੇ ਪੈਂਦੇ ਹਨ।\n- ਪੋਰਟਫੋਲਿਓ ਆਰਟੀਫੈਕਟ ਜੋ ਵਰਕਪਲੇਸ ਡਿਲਿਵਰੇਬਲ ਵਾਂਗ ਲੱਗਦੇ ਹਨ: ਇਕ ਛੋਟਾ ਰਿਪੋਰਟ, ਇੱਕ ਸਾਫ਼ ਕੀਤਾ ਡੇਟਾਸੇਟ, ਇੱਕ ਦੁਹਰਾਉਯੋਗ ਨੋਟਬੁੱਕ, ਇੱਕ ਸਧਾਰਨ ਮਾਡਲ ਕਾਰਡ।\n\nਇਹ ਤੱਤ ਚਲਾਉਣ ਲਈ ਮਹਿੰਗੇ ਹਨ, ਪਰ ਅਕਸਰ ਇਹ फर्क ਹੈ “ਮੈਂ ਦੇਖਿਆ” ਅਤੇ “ਮੈਂ ਕਰ ਸਕਦਾ/ਸਕਦੀ ਹਾਂ” ਵਿੱਚ।
ਕਿਸੇ ਕੋਰਸ ਦੀ ਗੁਣਵੱਤਾ ਦਾ ਅੰਦਾਜ਼ਾ ਲਾਉਣ ਲਈ ਹੇਠ ਲਿਖੇ ਗੰਭੀਰਤਾ ਦੇ ਸੂਚਕਾਂ ਵੇਖੋ:\n\n- ਸਪਸ਼ਟ prerequisites ਅਤੇ ਸਮੇਂ ਦੀ ਇਮਾਨਦਾਰ ਅੰਦਾਜ਼ਾ\n- ਰੂਬਰਿਕਸ ਜੋ ਤਰਕ ਨੂੰ ਗ੍ਰੇਡ ਕਰਦੀਆਂ ਹਨ, ਸਿਰਫ ਅੰਤਮ ਸਹੀਤਾ ਨਹੀਂ\n- ਅਪਡੇਟ ਕੀਤੇ ਅਸਾਈਨਮੈਂਟ (ਸਿਰਫ marketing copy ਨਹੀਂ)\n- ਵਿਦਿਆਰਥੀ ਨਤੀਜੇ ਜੋ ਕੰਮ ਦੀ ਗੁਣਵੱਤਾ ਦਿਖਾਉਂਦੇ ਹਨ, ਸਿਰਫ਼ ਨੌਕਰੀ ਸਿਰਲੇਖ ਨਹੀਂ\n\nਜੇ ਕੋਈ ਪ੍ਰੋਗਰਾਮ ਇਕ ਹਫ਼ਤੇ ਵਿੱਚ expertise ਦਾ ਵਾਅਦਾ ਕਰਦਾ ਹੈ, ਜਾਂ ਟੂਲ ਦੇ ਨਾਂ ਤੋਂ ਵੱਧ ਸਮੱਸਿਆ-ਫਰੇਮਿੰਗ 'ਤੇ ਧਿਆਨ ਨਹੀਂ ਦਿੰਦਾ, ਤਾਂ ਇਸਨੂੰ ਸਿਰਫ ਸ਼ੁਰੂਆਤ ਸਮਝੋ—ਪ੍ਰੋਫੀਸ਼ਨਸੀ ਦਾ ਰਸਤਾ ਨਹੀਂ।
Self-driving cars ਨੇ ਇੱਕ ਗੱਲ ਅਣਇਗਜ਼ੋਰ ਕਰਨ ਯੋਗ ਬਣਾਈ: ਜਦੋਂ AI ਭੌਤਿਕ ਦੁਨੀਆ ਨੂੰ ਛੁਹਦਾ ਹੈ, ਤਾਂ “ਅਕਸਰ ਸਹੀ” ਕਾਫ਼ੀ ਨਹੀਂ ਹੁੰਦਾ। ਇੱਕ ਛੋٽي perception ਗਲਤੀ ਸੁਰੱਖਿਆ ਘਟਨਾ, ਇੱਕ ਉਲਝਣ ਭਰੀ ਉਤਪਾਦ ਫੈਸਲਾ, ਜਾਂ ਲੋਕਾਂ ਦਾ ਭਰੋਸਾ ਖ਼ਰਾਬ ਹੋ ਜਾਣ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ। Thrun ਦਾ autonomy ਕੰਮ ਇਹ ਦਿਖਾਉਂਦਾ ਹੈ ਕਿ ਨੈਤਿਕਤਾ ਇਕ ਐਡ-ਨ ਨਹੀਂ—ਇਹ ਇੰਜੀਨੀਅਰਿੰਗ ਦਾ ਹਿੱਸਾ ਹੈ।
ਉੱਚ-ਦਾਅਵੇ AI ਟੀਮਾਂ ਸੁਰੱਖਿਆ ਨੂੰ ਬਰੇਕਿੰਗ ਸਿਸਟਮ ਵਾਂਗ ਮੰਨਦੀਆਂ ਹਨ: ਸ਼ੁਰੂ ਵਿੱਚ ਡਿਜ਼ਾਈਨ ਕੀਤੀ, ਲਗਾਤਾਰ ਟੈਸਟ ਹੋ ਰਹੀ, ਅਤੇ ਲਾਂਚ ਤੋਂ ਬਾਅਦ ਨਿਗਰਾਨੀ ਕੀਤੀ ਜਾਂਦੀ। ਇਹ ਮਨੋਭਾਵ ਕਿਸੇ ਵੀ AI ਉਤਪਾਦ 'ਤੇ ਲਾਗੂ ਕਰੋ।
ਗਾਰਡਰੇਲ ਬਣਾਓ ਜੋ ਫੇਲਿਅਰ ਹੋਣ ਦੀ ਉਮੀਦ ਰੱਖਦੇ ਹਨ। staged rollouts, ਸਪਸ਼ਟ fallbacks (human review, safer defaults), ਅਤੇ edge cases ਸਮੇਤ stress tests ਵਰਤੋ—ਸਿਰਫ “ਹੈਪੀ ਪਾਥ” ਡੈਮੋ ਨਹੀਂ।
ਪੱਖਪਾਤ ਅਕਸਰ ਅਸਮਾਨ ਪ੍ਰਦਰਸ਼ਨ ਵਜੋਂ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ: ਇਕ ਗਰੁੱਪ ਨੂੰ ਜ਼ਿਆਦਾ false rejections, ਘੱਟ ਚੰਗੀਆਂ ਸਿਫਾਰਿਸ਼ਾਂ, ਜਾਂ ਵੱਧ error rates ਮਿਲਦੀਆਂ ਹਨ। autonomy ਵਿੱਚ, ਇਹ ਕਈ ਵਾਰੀ ਕੁਝ ਲਾਈਟਿੰਗ, ਮੁਹੱਲੇ, ਜਾਂ ਮੌਸਮਾਂ ਵਿੱਚ ਖ਼ਰਾਬ ਪਛਾਣ ਹੋ ਸਕਦੀ ਹੈ—ਅਕਸਰ ਡੇਟਾ ਅਸਮਾਨਤਾ ਕਾਰਨ।
ਪਾਰਦਰਸ਼ਤਾ ਦੋ ਚੀਜ਼ਾਂ ਦਾ ਮਤਲਬ ਹੈ: (1) ਯੂਜ਼ਰਾਂ ਨੂੰ ਸਮਝ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ ਕਿ ਸਿਸਟਮ ਕੀ ਕਰ ਸਕਦਾ ਅਤੇ ਕੀ ਨਹੀਂ, ਅਤੇ (2) ਨਿਰਮਾਤਾ ਘੱਟੋ-ਘੱਟ ਉੱਚ-ਸਤਰ ਤੇ ਵਿਆਖਿਆ ਕਰ ਸਕਣ ਕਿ ਆਉਟਪੁੱਟ ਕਿਵੇਂ ਬਣੇ—ਡੇਟਾ ਸਰੋਤ, ਮਾਡਲ ਪ੍ਰਕਾਰ, ਮੁਲਾਂਕਣ ਮੈਟਰਿਕ, ਜਾਣੇ-ਪਛਾਣੇ ਫੇਲਿਅਰ ਮੋਡ।
ਸੀਮਾਵਾਂ ਬਿਨ੍ਹਾਂ AI ਸਿੱਖਣਾ ਨਿਰਭਰ-ਵਿਮਾਨ ਨਿਰਮਾਣ ਕਰਦਾ ਹੈ। ਨੈਤਿਕਤਾ ਦੀ ਸਿੱਖਿਆ ਨੂੰ ਨਿੱਜੀ ਅਤੇ ਵਿਆਵਹਾਰਿਕ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ: ਸਹੀ ਮੈਟਰਿਕ ਕਿਵੇਂ ਚੁਣੀ ਜਾਵੇ, ਨੁਕਸਾਨਕਾਰਕ ਗਲਤੀਆਂ ਕਿਵੇਂ ਪਛਾਣੀਆਂ ਜਾਣ, ਅਤੇ ਦੁਰਪਯੋਗ ਨੂੰ ਰੋਕਣ ਲਈ ਇਮਾਨਦਾਰ ਦਸਤਾਵੇਜ਼ ਕਿਵੇਂ ਲਿਖੀਏ।
ਆਪਣੇ AI ਪ੍ਰੋਜੈਕਟ ਨੂੰ ਸ਼ਿਪ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ, ਪੁੱਛੋ:\n\n- Purpose: ਮਾਡਲ ਕਿਸ ਫੈਸਲੇ 'ਤੇ ਪ੍ਰਭਾਵ ਪਾ ਰਿਹਾ ਹੈ, ਅਤੇ ਜੇ ਇਹ ਗਲਤ ਹੋਏ ਤਾਂ ਨੁਕਸਾਨ ਕੀ ਹੋ ਸਕਦਾ ਹੈ?\n- Data: ਕਿਹੜੇ ਲੋਕ ਚੰਗੀ ਤਰ੍ਹਾਂ ਦਰਸਾਏ ਗਏ ਹਨ, ਕਿਹੜੇ ਨਹੀਂ, ਅਤੇ ਕਿਉਂ?\n- Evaluation: ਕੀ ਤੁਸੀਂ ਵੱਖ-ਵੱਖ ਯੂਜ਼ਰ ਗਰੁੱਪਾਂ ਜਾਂ ਸਥਿਤੀਆਂ ਵਿੱਚ ਪ੍ਰਦਰਸ਼ਨ ਟੈਸਟ ਕੀਤਾ?\n- Safety: ਜਦੋਂ confidence ਘੱਟ ਹੁੰਦੀ ਹੈ ਤਾਂ ਕੀ ਹੁੰਦਾ—ਕੀ ਤੁਸੀਂ ਸੁਰੱਖਿਅਤ ਤਰੀਕੇ ਨਾਲ ਫੇਲ ਹੁੰਦੇ ਹੋ?\n- Transparency: ਕੀ ਤੁਸੀਂ ਸਧਾਰਨ ਭਾਸ਼ਾ ਵਿੱਚ inputs, outputs, ਅਤੇ ਮੁੱਖ ਸੀਮਾਵਾਂ ਵਰਣਨ ਕਰ ਸਕਦੇ ਹੋ?\n- Monitoring: ਰਿਲੀਜ਼ ਤੋਂ ਬਾਅਦ ਤੁਸੀਂ ਕੀ ਟਰੈਕ ਕਰੋਗੇ, ਅਤੇ ਮਸਲਿਆਂ 'ਤੇ ਕੌਣ ਜਵਾਬ ਦੇਵੇਗਾ?\n\nਇਹ ਆਦਤਾਂ ਤੁਹਾਨੂੰ ਧੀਰਜ ਨਾਲ ਨਹੀਂ ਰੋਕਦੀਆਂ; ਇਹ ਪਹਿਲੇ ਦਿਨ ਤੋਂ ਦੁਬਾਰਾ ਕੰਮ ਘਟਾਉਂਦੀਆਂ ਅਤੇ ਭਰੋਸਾ ਬਣਾਉਂਦੀਆਂ ਹਨ।
Sebastian Thrun ਦਾ ਰਸਤਾ ਉਹ ਦੋ ਦੁਨੀਆਂ ਜੋੜਦਾ ਹੈ ਜੋ ਅਕਸਰ ਇੱਕ-ਦੂਜੇ ਨਾਲ ਗੱਲ ਨਹੀਂ ਕਰਦੀਆਂ: ਗੰਦੀ ਹਕੀਕਤ ਨੂੰ ਜ਼ਿੰਦਗੀਆਂ 'ਚ ਬਚਣ ਵਾਲੀਆਂ ਪ੍ਰਣਾਲੀਆਂ (self-driving cars) ਬਣਾਉਣਾ ਅਤੇ ਵਿਆਪਕ ਮਨੁੱਖਾਂ ਲਈ ਕਾਰਗਰ ਸਿੱਖਣ ਦਾ ਉਤਪਾਦ ਬਣਾਉਣਾ (Udacity)। ਸਾਂਝਾ ਧਾਗਾ ਫੀਡਬੈਕ ਹੈ—ਤੇਜ਼, ਸਪਸ਼ਟ, ਅਤੇ ਅਸਲ ਨਤੀਜਿਆਂ ਨਾਲ ਜੋੜਿਆ ਹੋਇਆ।
Autonomous driving ਨੇ AI ਨੂੰ ਸਾਫ਼ ਬੈਂਚਮਾਰਕ ਤੋਂ ਬਾਹਰ ਅਤੇ ਐਡਜ ਕੇਸਜ਼ ਵਿੱਚ ਲਿਆਇਆ: ਚਮਕ, ਅਜਿਹੇ ਨਿਸ਼ਾਨ, ਅਣਕਿੱਥੇ ਲੋਕ, ਅਤੇ ਸੈਂਸਰ ਫੇਲਿਅਰ। ਵੱਡਾ ਸਬਕ “ਹੋਰ ਡੇਟਾ ਇਕੱਠਾ ਕਰੋ” ਨਹੀਂ, ਬਲਕਿ ਅਣਜਾਣ ਲਈ ਡਿਜ਼ਾਈਨ ਕਰੋ।
ਬਣਾਉਣ ਵਾਲਿਆਂ ਲਈ:\n\n- ਹਰ ਹੈਰਾਨੀ ਭਰਿਆ ਫੇਲ ਨੂੰ ਇੱਕ ਪ੍ਰੋਡਕਟ ਲੋੜ ਮੰਨੋ, ਨਾ ਕਿ ਇੱਕ ਅਪਵਾਦ।\n- ਹਰ ਚੀਜ਼ ਨੂੰ ਇੰਸਟਰੂਮੈਂਟ ਕਰੋ: ਲੌਗਸ, uncertainty ਅਨੁਮਾਨ, ਅਤੇ ਮਨੁੱਖੀ ਓਵਰਰਾਈਡ।\n- ਸਕੇਲ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਛੋਟੇ ਪ੍ਰਯੋਗ ਚਲਾਓ—ਸਿਮੂਲੇਸ਼ਨ, ਪਾਇਲਟ, ਅਤੇ ਸ਼ੈਡੋ ਮੋਡ।
Udacity ਦਾ ਸਭ ਤੋਂ ਮਜ਼ਬੂਤ ਵਿਚਾਰ ਵੀਡੀਓ ਲੈਕਚਰ ਨਹੀਂ ਸੀ; ਇਹ ਸੀ ਟਾਈਟ ਲੂਪ ਨਾਲ ਅਭਿਆਸ: ਪ੍ਰੋਜੈਕਟ, ਡੈਡਲਾਈਨ, ਸਮੀਖਿਆ, ਅਤੇ ਨੌਕਰੀ-ਸਬੰਧੀ ਹੁਨਰ। ਇਹ ਉੱਚ-ਦਾਅਵੇ ਇੰਜੀਨੀਅਰਿੰਗ ਟੀਮਾਂ ਦੇ ਸਿੱਖਣ ਵਰਗਾ ਹੈ—ਸ਼ਿਪ ਕਰਕੇ, ਮਾਪ ਕੇ, ਅਤੇ ਦੁਹਰਾਕੇ।
ਸਿੱਖਣ ਵਾਲਿਆਂ ਲਈ:\n\n- “AI ਪੜ੍ਹੋ” ਨੂੰ ਇੱਕ ਵਿਸ਼ਾ ਵਜੋਂ ਨਹੀਂ ਲਓ। ਇੱਕ ਕੇਸ-ਯੂਜ਼ ਚੁਣੋ (ਭਵਿੱਖਬਾਣੀ, ਸਿਫ਼ਾਰਸ਼ਾਂ, perception, ਆਟੋਮੇਸ਼ਨ)।\n- ਇੱਕ ਪੋਰਟਫੋਲਿਓ ਬਣਾਓ ਜੋ ਹਰ ਪ੍ਰੋਜੈਕਟ ਨਾਲ ਇੱਕ ਹੁਨਰ ਸਾਬਤ ਕਰੇ (ਡੇਟਾ ਸਾਫ਼-ਸੁਥਰਾ, ਮੁਲਾਂਕਣ, ਡਿਪਲੌਇਮੈਂਟ, ਦਸਤਾਵੇਜ਼)।\n- ਛੋਟੇ postmortems ਲਿਖੋ: ਕੀ ਫੇਲ ਹੋਇਆ, ਕੀ ਬਦਲਿਆ, ਅਤੇ ਅਗਲੇ ਟੈਸਟ ਕਿਹੜੇ ਹੋਣਗੇ।
ਜੇ ਤੁਹਾਡਾ ਲਕਸ਼ ਪ੍ਰੋਡਕਟ ਸੋਚ ਦਿਖਾਉਣਾ ਹੈ, ਤਾਂ ਇੱਕ ਪ੍ਰੋਜੈਕਟ ਨੂੰ ਇੱਕ ਛੋਟੇ ਐਪ ਵਿੱਚ ਪੈਕ ਕਰਨ 'ਤੇ ਵਿਚਾਰ ਕਰੋ ਜਿਸ ਵਿੱਚ authentication, ਡੇਟਾਬੇਸ, ਅਤੇ ਇੱਕ ਡਿਪਲਏਬਲ ਡੈਮੋ ਹੋਵੇ। Koder.ai ਵਰਗਾ ਚੈਟ-ਚਲਿਤ ਬਿਲਡਰ ਵੈੱਧਰੋ-ੋਵਰਹੈਡ ਨੂੰ ਘਟਾ ਸਕਦਾ ਹੈ, ਤਾਂ ਜੋ ਤੁਸੀਂ ਡੇਟਾ, ਮੁਲਾਂਕਣ, ਅਤੇ ਸੁਰੱਖਿਆ ਚੈੱਕ 'ਤੇ ਵਧੇਰੇ ਸਮਾਂ ਬਿਤਾ ਸਕੋ।
Week 1: ਬੁਨਿਆਦੀ ਤੱਕ ਤਾਜ਼ਾ ਕਰੋ (Python + ਅੰਕੜੇ) ਅਤੇ ਇੱਕ ਪ੍ਰੋਜੈਕਟ ਚੁਣੋ।\n\nWeek 2: ਡੇਟਾ ਇਕੱਠਾ/ਤਿਆਰ ਕਰੋ; ਸਫਲਤਾ ਮੈਟਰਿਕ ਅਤੇ ਬੇਸਲਾਈਨ ਪਰਿਭਾਸ਼ਿਤ ਕਰੋ।\n\nWeek 3: ਮਾਡਲ ਟ੍ਰੇਨ ਕਰੋ ਅਤੇ ਤੁਲਨਾ ਕਰੋ; ਗਲਤੀ ਅਤੇ ਫੇਲਿਅਰ ਪੈਟਰਨ ਟਰੈਕ ਕਰੋ।\n\nWeek 4: ਆਪਣਾ ਕੰਮ ਪੈਕੇਜ ਕਰੋ: ਇੱਕ ਪੜ੍ਹਨਯੋਗ README, ਦੁਹਰਾਉਯੋਗ ਰਨ, ਅਤੇ ਇੱਕ ਛੋਟਾ ਡੈਮੋ।
AI ਵਿੱਚ ਤਰੱਕੀ ਅਸਲੀ ਹੈ—ਪਰ ਸੀਮਾਵਾਂ ਵੀ ਹਨ: ਸੁਰੱਖਿਆ, ਪੱਖਪਾਤ, ਭਰੋਸੇਯੋਗਤਾ, ਅਤੇ ਜ਼ਿੰਮੇਵਾਰੀ। ਸਥਾਈ ਫਾਇਦਾ ਮਨੁੱਖੀ ਫੈਸਲਾ ਹੈ: ਸਮੱਸਿਆ ਨਿਰਧਾਰਤ ਕਰਨਾ, ਸੀਮਾਵਾਂ ਰੱਖਣੀਆਂ, ਟਰੇਡ-ਆਫ ਦਰਸਾਉਣਾ, ਅਤੇ ਐਸੇ ਸਿਸਟਮ ਡਿਜ਼ਾਈਨ ਕਰਨਾ ਜੋ ਸੁਰੱਖਿਅਤ ਤਰੀਕੇ ਨਾਲ ਫੇਲ ਹੋਣ। ਇਸ ਤਰ੍ਹਾਂ ਬਣਾਉ ਅਤੇ ਸਿੱਖੋ, ਅਤੇ ਤੁਸੀਂ ਉਪਯੋਗੀ ਰਹੋਗੇ ਜਦੋਂ ਟੂਲ ਬਦਲਦੇ ਰਹਿਣ।
ਉਹ ਉਹਨਾਂ ਤਿੰਨ ਦੁਨੀਆਂ ਨੂੰ ਜੋੜਦਾ ਹੈ ਜੋ ਅਕਸਰ ਸਾਫ਼-ਸੁਤਰੀ ਤਰ੍ਹਾਂ ਨਹੀਂ ਮਿਲਦੀਆਂ: ਅਕਾਦਮਿਕ AI (probabilistic robotics), ਉੱਚ-ਜਿੰਮੇਦਾਰ صنعتی ਕਾਰਗੁਜਾਰੀ (autonomous driving), ਅਤੇ ਇੰਟਰਨੈਟ-ਪੱਧਰੀ ਸਿੱਖਿਆ (MOOCs ਅਤੇ Udacity)। ਸਾਂਝਾ ਨਮੂਨਾ ਹੈ ਕਸਰਤ ਵਾਲੇ ਫੀਡਬੈਕ ਲੂਪ—ਬਣਾਉ, ਹਕੀਕਤ ਵਿੱਚ ਟੈਸਟ ਕਰੋ, ਸੁਧਾਰ ਕਰੋ, ਦੁਹਰਾਓ।
ਇੱਕ ਸਵੈ-ਚਲਿਤ ਸਿਸਟਮ ਇੱਕ end-to-end ਸਟੈਕ ਹੈ, ਇੱਕ ਹੀ ਮਾਡਲ ਨਹੀਂ:
ML ਵੱਧਤਰ perception (ਅਤੇ ਕਦੇ-kਦੇ prediction) ਵਿੱਚ ਸਹਾਇਕ ਹੁੰਦਾ ਹੈ, ਜਦਕਿ ਸੁਰੱਖਿਆ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਸਿਸਟਮ ਇੰਜੀਨੀਅਰਿੰਗ ਅਤੇ ਵੈਲੀਡੇਸ਼ਨ ਤੋਂ ਆਉਂਦੀ ਹੈ।
ਕਿਉਂਕਿ ਅਸਲ ਦੁਨੀਆਂ ਵਿੱਚ ਰੇਅਰ ਪਰ ਘਟਨਾ-ਵਿਸ਼ਾਲ ਪ੍ਰਭਾਵ ਵਾਲੀ ਘਟਨਾਵਾਂ ਬਹੁਤ ਹੁੰਦੀਆਂ ਹਨ (ਅਸਧਾਰਣ ਨਿਰਮਾਣ, ਵੱਖਰਾ ਰੋਸ਼ਨੀ, ਮਨੁੱਖੀ ਇਸ਼ਾਰੇ, ਸੈਂਸਰ ਦੀ ਖ਼ਰਾਬੀ)। ਇੱਕ ਮਾਡਲ ਔਸਤ ਤੇ ਚੰਗਾ ਲੱਗ ਸਕਦਾ ਹੈ ਪਰ ਮਿਲੀਅਨਾਂ ਵਿੱਚ ਇਕ ਵਾਰੀ ਆਉਣ ਵਾਲੀ ਘਟਨਾ 'ਚ ਭਾਰੀ ਤਰ੍ਹਾਂ ਫੇਲ ਹੋ ਸਕਦਾ ਹੈ।
ਵਿਆਵਹਾਰਿਕ ਰਾਹ ਹਨ: ਸਿਮੂਲੇਸ਼ਨ, curated scenario libraries, redundant sensing/checks, ਅਤੇ uncertainty ਵਧਣ 'ਤੇ ਸਪਸ਼ਟ fail-safe ਵਰਤਾਰੇ।
DARPA ਨੇ ਟੀਮਾਂ ਨੂੰ ਲੈਬ ਦੇ ਬਾਹਰ autonomy ਸਾਬਤ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕੀਤਾ, ਜਿੱਥੇ ਧੂੜ, ਉਠਾਨ-ਬੈਠਾਨ ਅਤੇ ਅਸਪਸ਼ਟਤਾ ਸਾਫ-ਸਥਿਤੀਆਂ ਨੂੰ ਤੋੜ ਦਿੰਦੇ ਹਨ। ਲੰਬੇ ਸਮੇਂ ਲਈ ਸਬਕ ਇਹ ਹੈ ਕਿ autonomy integration discipline ਰਾਹੀਂ ਸਫਲ ਹੁੰਦੀ ਹੈ:
ਇਹ “ਸਿਸਟਮ-ਪਹਿਲਾਂ” ਸੋਚ ਬਾਅਦ ਦੇ self-driving ਯਤਨਾਂ ਵਿੱਚ ਸਿੱਧੀ ਤਰ੍ਹਾਂ ਲੱਗੀ।
ਸਵਾਲ ਬਦਲ ਜਾਂਦੇ ਹਨ: “ਕੀ ਇਹ ਕਦੇ ਕੰਮ ਕਰਦਾ ਹੈ?” ਤੋਂ “ਕੀ ਇਹ ਹਰੇਕ ਸਥਿਤੀ ਵਿੱਚ ਭਰੋਸੇਯੋਗ ਅਤੇ ਸੁਰੱਖਿਅਤ ਹੈ?” ਤਰ੍ਹਾਂ. Product thinking ਇਹ ਵੀ ਦਿਖਾਉਂਦਾ ਹੈ:
ਅਮਲ ਵਿੱਚ, testing ਅਤੇ monitoring training ਜਿਤਨਾ ਹੀ ਮਹੱਤਵਪੂਰਨ ਬਣ ਜਾਂਦੇ ਹਨ।
ਪਹਿਲੇ MOOCs ਨੇ ਸਾਬਤ ਕੀਤਾ ਕਿ ਵਧੀਆ ਸਿੱਖਿਆ ਬਹੁਤ ਤੇਜ਼ੀ ਨਾਲ ਪਹੁੰਚ ਸਕਦੀ ਹੈ, ਪਰ ਬਹੁਤ ਸਾਰੇ ਸਿੱਖਣ ਵਾਲੇ ਖਤਮ ਨਹੀਂ ਕਰ ਪਾਏ, ਅਤੇ ਪੂਰਕ ਪ੍ਰਮਾਣ ਪੱਤਰ ਆਮ ਤੌਰ 'ਤੇ ਨੌਕਰੀ ਵਿੱਚ ਤਬਦੀਲ ਨਹੀਂ ਹੁੰਦਾ। Udacity ਨੇ ਜ਼ਿਆਦਾ ਸਰਚੜ੍ਹੇ ਪ੍ਰੋਗਰਾਮਾਂ ਵੱਲ ਵਲਿਆ ਕਿਉਂਕਿ ਸਿੱਖਿਆਰਥੀਆਂ ਨੇ ਜੋ ਮੰਗ ਕੀਤੀ ਸੀ ਉਹ ਸੀ: ਢਾਂਚਾਬੱਧਤਾ, ਜ਼ਿੰਮੇਵਾਰੀ, ਅਤੇ ਤਿਹਤਿੰਗ ਨਤੀਜੇ।
ਇਸਦਾ ਮਤਲਬ ਸੀ:
Nanodegree ਦਾ ਉਦੇਸ਼ “ਮੈਂ ਕਾਮ ਕਰ ਸਕਦਾ/ਸਕਦੀ ਹਾਂ” ਨੂੰ ਦਿਖਾਉਣਾ ਹੈ ਰਾਹੀਂ:
ਇਸ ਨੂੰ ਇੱਕ apprenticeship-lite ਵਾਂਗ ਮੰਨੋ: ਬਣਾਓ, ਨਿਕਟ ਤੋਂ ਸਮੀਖਿਆ ਪ੍ਰਾਪਤ ਕਰੋ, ਦੁਹਰਾਓ।
ਇੱਕ ਸਪਸ਼ਟ ਉਦੇਸ਼ ਨਹੀਂ ਹੋਣ ਨਾਲ ਪ੍ਰੇਰਣਾ ਖ਼ਤਮ ਹੋ ਜਾਂਦੀ ਹੈ। “AI ਸਿੱਖੋ” ਬਹੁਤ ਵਿਆਪਕ ਹੈ; “ਇੱਕ ਕਲਾਸੀਫ਼ਾਇਰ ਬਣਾਓ ਜੋ ਸਪੋਰਟ ਟਿਕਟਾਂ ਨੂੰ ਵਰਗੀਕ੍ਰਿਤ ਕਰਦਾ ਹੈ” ਸੰਕੁਚਿਤ ਹੈ। ਲਕੜੀ-ਸ਼ੈਲੀ ਲਕੜੀ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ: ਡੈਟਾਸੇਟ, ਮੁਲ્યાંਕਨ ਮੈਟਰਿਕ, ਅਤੇ ਇਕ ਸਾਂਝਾ ਡੈਮੋ ਜੋ ਤੁਸੀਂ ਸਾਂਝਾ ਕਰ ਸਕੋ।
ਨਕਲ-ਪੇਸਟ ਅਭਿਆਸਾਂ ਤੋਂ ਬਚੋ। ਚੰਗੇ ਪ੍ਰੋਜੈਕਟ ਇਹ ਸੁਨਿਸ਼ਚਿਤ ਕਰਦੇ ਹਨ ਕਿ ਤੁਸੀਂ ਫੀਚਰਾਂ ਨੂੰ ਵਰਣਨ ਕਰ ਸਕੋ, train/validation split ਨੂੰ ਸਮਝ ਸਕੋ, ਅਤੇ ਇਹ ਦੱਸ ਸਕੋ ਕਿ ਇੱਕ ਮਾਡਲ ਨੇ ਦੂਜੇ ਨੂੰ ਕਿਉਂ ਹਰਾਇਆ।
ਪ੍ਰਯੋਗਾਂ ਦੀ ‘ship’ ਕਦਮ ਨੂੰ ਸਪਸ਼ਟ ਬਣਾਓ: ਉਦਾਹਰਣ ਲਈ, ਇੱਕ ਸੰਪਲ ਵੈੱਬ ਐਪ ਜਿੱਥੇ ਲਾਗਿੰਗ ਅਤੇ ਫੀਡਬੈਕ ਫ਼ਾਰਮ ਹੋਵੇ, ਤਾਂ ਕਿ ਤੁਸੀਂ ਮਾਨੀਟਰਿੰਗ ਅਤੇ ਇਟਰੇਸ਼ਨ ਵੀ ਸਿੱਖੋ—ਸਿਰਫ਼ training ਨਹੀਂ। ਕਈ ਵਾਰ Koder.ai ਵਰਗੇ ਪਲੇਟਫਾਰਮ ਮਦਦਗਾਰ ਹੁੰਦੇ ਹਨ: ਤੁਸੀਂ ਚੈਟ ਵਿੱਚ ਐਪ ਦਾ ਵੇਰਵਾ ਦੇ ਕੇ React frontend ਅਤੇ Go + PostgreSQL backend ਜਨਰੇਟ ਕਰ ਸਕਦੇ ਹੋ, ਫਿਰ source code ਐਕਸਪੋਰਟ ਜਾਂ ਡਿਪਲੌਏ ਕਰ ਸਕਦੇ ਹੋ, ਜੋ ਨੋਟਬੁੱਕ ਨੂੰ ਟੈਸਟੇਬਲ ਚੀਜ਼ ਵਿੱਚ ਬਦਲਣਾ ਆਸਾਨ ਬਣਾਉਂਦਾ ਹੈ।
ਨਕਲ-ਪੇਸਟ ਕਰੋ: ਜੋ ਕੰਮ ਦੀ ਨਕਲ ਕਰ ਰਹੇ ਹਨ। ਆਸਾਨ ਸਿਗਨਲ ਖੋਜੋ:
ਜੇਕਰ ਕੋਈ ਪ੍ਰੋਗਰਾਮ ਇੱਕ ਹਫ਼ਤੇ ਵਿੱਚ ਮਹਾਰਥ ਦਾ ਵਾਅਦਾ ਕਰਦਾ ਹੈ ਜਾਂ ਸਿਰਫ ਟੂਲ ਦੇ ਨਾਂ ਤੱਕ ਸੀਮਤ ਹੈ, ਤਾਂ ਇਸਨੂੰ ਸਿਰਫ ਇੱਕ ਸ਼ੁਰੂਆਤ ਸਮਝੋ—ਪ੍ਰੋਫੀਸ਼ਨਸੀ ਦਾ ਰਸਤਾ ਨਹੀਂ।
ਉੱਚ-ਜਿੰਮੇਦਾਰ AI ਟੀਮਾਂ ਸੁਰੱਖਿਆ ਨੂੰ early ਡਿਜ਼ਾਈਨ, ਲਗਾਤਾਰ ਟੈਸਟਿੰਗ, ਅਤੇ ਲਾਂਚ ਦੇ ਬਾਅਦ ਨਿਗਰਾਨੀ ਵਾਂਗ ਸੋਚਦੇ ਹਨ। ਇਸ ਮਨੋਭਾਵ ਨੂੰ ਕਿਸੇ ਵੀ AI ਉਤਪਾਦ 'ਤੇ ਲਾਗੂ ਕਰੋ।
ਅਨੁਭਵਿਕ ਰੂਪ ਵਿੱਚ guardrails ਬਣਾਓ ਜੋ ਫੇਲਿਅਰ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੀਆਂ ਹਨ: staged rollouts, ਸਪਸ਼ਟ fallbacks (human review, safer defaults), ਅਤੇ edge cases ਵਾਲੇ stress tests—ਸਿਰਫ “ਖੁਸ਼ਮਿਜਾਜ਼” ਡੈਮੋ ਨਹੀਂ।