ਜਾਣੋ ਕਿ ਆਰਟੀਫ਼ਿਸ਼ਲ ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ (AGI) ਦਾ ਅਸਲ ਮਤਲਬ ਕੀ ਹੈ, LLMs ਕਿਵੇਂ ਕੰਮ ਕਰਦੇ ਹਨ, ਅਤੇ ਕਿਹੜੇ ਕਾਰਣ ਹਨ ਜੋ ਦੱਸਦੇ ਹਨ ਕਿ ਮੌਜੂਦਾ ਟੈਕਸਟ ਮਾਡਲ ਸੱਚੇ AGI ਵਿਚ ਨਹੀਂ ਬਦਲ ਸਕਦੇ।

ਜੇ ਤੁਸੀਂ ਟੈਕ ਨਿਊਜ਼, ਨਿਵੇਸ਼ਕਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ਾਂ, ਜਾਂ ਪ੍ਰੋਡਕਟ ਪੰਨਿਆਂ ਨੂੰ ਪੜ੍ਹਦੇ ਹੋ ਤਾਂ ਤੁਸੀਂ ਦੇਖੋਗੇ ਕਿ ਸ਼ਬਦ ਇੰਟੈਲਿਜੈਂਸ ਨੂੰ ਕਿੰਨਾ ਵੱਧ ਫੈਲਾਇਆ ਜਾ ਰਿਹਾ ਹੈ। ਚੈਟਬੋਟ “ਲਗਭਗ ਮਨੁੱਖੀ” ਹਨ, ਕੋਡਿੰਗ ਸਹਾਇਕ “ਜੂਨੀਅਰ ਇੰਜੀਨੀਅਰ ਵਰਗੀ ਕੰਮ” ਕਰਦੇ ਦਿਖਦੇ ਹਨ, ਅਤੇ ਕੁਝ ਲੋਕ ਸ਼ਕਤੀਸ਼ਾਲੀ large language models (LLMs) ਨੂੰ ਆਸਾਨੀ ਨਾਲ ਕ੍ਰਿਤ੍ਰਿਮ ਆਮ ਬੁੱਧੀ (AGI) ਵੱਲ ਪਹਿਲਾ ਕਦਮ ਕਹਿ ਦਿੰਦੇ ਹਨ।
ਇਹ ਲੇਖ ਉਨ੍ਹਾਂ ਉਤਸ਼ੁਕ ਪ੍ਰੈਕਟਿਸ਼ਨਰਾਂ, ਫਾਉਂਡਰਾਂ, ਪ੍ਰੋਡਕਟ ਲੀਡਰਾਂ ਅਤੇ ਤਕਨੀਕੀ ਪਠਕਾਂ ਲਈ ਹੈ ਜੋ GPT-4 ਜਾਂ Claude ਵਰਗੇ ਟੂਲ ਵਰਤਦੇ ਹਨ ਅਤੇ ਸੋਚਦੇ ਹਨ: ਕੀ ਇਹ AGI ਹੈ— ਜਾਂ ਕੁਝ ਮੇਹਤਵਪੂਰਨ ਗੱਲ ਘਾਟ ਰਹੀ ਹੈ?
LLMs ਦਰਅਸਲ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹਨ। ਉਹ:
ਅਧਿਕਾਂਸ਼ ਗੈਰ-ਮਾਹਿਰਾਂ ਲਈ ਇਹ “ਆਮ ਬੁੱਧੀ” ਨਾਲ ਅਪੂਰਣ ਰਹਿ ਜਾਂਦਾ ਹੈ। ਜਦੋਂ ਇੱਕ ਮਾਡਲ ਇੱਕੈ ਸੈਸ਼ਨ ਵਿੱਚ ਕਾਂਟ-ਕਾਟਤੇ ਪ੍ਰਬੰਧ, TypeScript ਦੀ ਗਲਤੀ ਠੀਕ ਕਰਨਾ ਅਤੇ ਕਾਨੂੰਨੀ ਮੈਮੋ ਮਸੌਦਾ ਤਿਆਰ ਕਰ ਸਕਦਾ ਹੈ ਤਾਂ ਇਹ ਸੋਚਨਾ ਕੁਦਰਤੀ ਹੈ ਕਿ ਅਸੀਂ AGI ਦੇ ਨੇੜੇ ਪਹੁੰਚ ਰਹੇ ਹਾਂ।
ਪਰ ਇਹ ਮੰਨਣਾ ਖ਼ਾਮੋਸ਼ੀ ਨਾਲ ਭਾਸ਼ਾ ਵਿੱਚ ਕੁਸ਼ਲ ਹੋਣ ਨੂੰ ਸਾਰਵਜਨਿਕ ਬੁੱਧੀ ਨਾਲ ਸਮਾਨ ਕਰ ਦਿੰਦਾ ਹੈ। ਇਹੀ ਮੁੱਖ ਗਲਤਫ਼ਹਮੀ ਹੈ ਜਿਸ ਨੂੰ ਅਸੀਂ ਇਸ ਲੇਖ ਵਿੱਚ ਖੋਲ੍ਹਾਂਗੇ।
ਹੇਠਾਂ ਵਧਾਇਆ ਗਿਆ ਦਲੀਲ ਇਹ ਹੈ:
ਮੌਜੂਦਾ LLMs ਟੈਕਸਟ ਅਤੇ ਕੋਡ 'ਤੇ ਬਹੁਤ ਸਮਰੱਥ ਪੈਟਰਨ-ਲਰਨਰ ਹਨ, ਪਰ ਉਹਨਾਂ ਦੀ ਆਰਕੀਟੈਕਚਰ ਅਤੇ ਟ੍ਰੇਨਿੰਗ ਰੀਜੀਮ ਉਨ੍ਹਾਂ ਨੂੰ ਸਿੱਧੀ ਸਕੇਲਿੰਗ ਜਾਂ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਨਾਲ ਸੱਚੇ AGI ਬਣਨ ਲਈ ਅਸੰਭਵ ਬਣਾਉਂਦੇ ਹਨ।
ਉਹ ਹੋਰ ਬਿਹਤਰ, ਵਧੇਰੇ ਵਰਤੋਂਯੋਗ ਹੁੰਦੇ ਜਾਣਗੇ ਅਤੇ AGI-ਵਾਂਗੇ ਸਿਸਟਮਾਂ ਦਾ ਹਿੱਸਾ ਵੀ ਹੋ ਸਕਦੇ ਹਨ। ਫਿਰ ਵੀ ਗਹਿਰੇ ਕਾਰਣ ਹਨ—ਜਿਵੇਂ ਗ੍ਰਾਊਂਡਿੰਗ, ਏਜੰਸੀ, ਯਾਦ, ਸਰੀਰਕ ਅਨੁਭਵ ਅਤੇ ਸਵ-ਮੌਡਲ—ਜਿਨ੍ਹਾਂ ਕਰਕੇ “ਵੱਡਾ LLM” ਅਤੇ “ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ” ਇੱਕੋ ਰਾਹ ਨਹੀਂ ਹਨ।
ਇਹ ਇੱਕ ਰਾਏ-ਪਰ ਅਧਾਰਿਤ ਦੌਰਾ ਹੋਵੇਗਾ, ਪਰ ਇਹ ਮੌਜੂਦਾ ਖੋਜ, LLMs ਦੀਆਂ ਖ਼ਾਸਯਤਾਂ ਅਤੇ ਨਾਕਾਮੀਆਂ ਅਤੇ ਖੁੱਲ੍ਹੇ ਸਵਾਲਾਂ 'ਤੇ ਅਧਾਰਿਤ ਰਹੇਗਾ—ਹਾਇਪ ਜਾਂ ਭੈੜੇ-ਭਾਵਨਾਵਾਂ 'ਤੇ ਨਹੀਂ।
ਜਦੋਂ ਲੋਕ AGI ਕਹਿੰਦੇ ਹਨ ਤਾਂ ਉਹ ਇੱਕੋ ਜਿਹਾ ਮਤਲਬ ਨਹੀਂ ਲੈਂਦੇ। ਵਾਦ-ਵਿਵਾਦ ਨੂੰ ਸਾਫ਼ ਕਰਨ ਲਈ ਕੁਝ ਮੁੱਖ ਧਾਰਨਾਵਾਂ ਨੂੰ ਵੱਖ-ਵੱਖ ਕਰਨਾ ਲਾਭਕਾਰੀ ਹੈ।
AI (ਕ੍ਰਿਤ੍ਰਿਮ ਬੁੱਧੀ) ਉਹ ਵਿਸ਼ਾਲ ਖੇਤਰ ਹੈ ਜੋ ਅਜਿਹੇ ਸਿਸਟਮ ਬਣਾਉਂਦਾ ਹੈ ਜੋ "ਬੁੱਧੀਮਾਨ" ਵਰਤਾਰਿਆਂ ਵਾਲੀਆਂ ਕੁਝ ਟਾਸਕ ਕਰ ਸਕਦੇ ਹਨ: ਬੋਲ ਚੀਹ ਰਹਿਣ, ਮੂਵੀ ਦੀ ਸਿਫ਼ਾਰਸ਼, Go ਖੇਡਣਾ, ਕੋਡ ਲਿਖਣਾ ਆਦਿ।
ਅੱਜ ਜ਼ਿਆਦਾਤਰ ਮੌਜੂਦ ਚੀਜ਼ਾਂ ਤੰਗ AI (ਜਾਂ ਨਿਊਕਸ AI) ਹਨ: ਉਹ ਨਿਰਧਾਰਿਤ ਸਥਿਤੀਆਂ ਅਤੇ ਕੰਮਾਂ ਲਈ ਬਣਾਏ ਜਾਂਦੇ ਹਨ। ਇੱਕ ਚਿੱਤਰ ਵਰਗੀਫਿਕੇਅਰ ਜੋ ਬਿੱਲੀ ਅਤੇ ਕੁੱਤੇ ਦੀ ਪਹਿਚਾਣ ਕਰਦਾ ਹੈ, ਜਾਂ ਇੱਕ ਬੈਂਕਿੰਗ-ਚੈਟਬੋਟ, ਆਪਣੇ ਖੇਤਰ ਵਿੱਚ ਮਹਾਨ ਹੋ ਸਕਦੇ ਹਨ ਪਰ ਬਾਹਰ ਫੇਲ੍ਹ ਹੋ ਜਾਂਦੇ ਹਨ।
Artificial General Intelligence (AGI) ਬਿਲਕੁਲ ਵੱਖਰਾ ਹੈ। ਇਹ ਉਹ ਸਿਸਟਮ ਹੋਵੇਗਾ ਜੋ:
ਆਮ ਤੌਰ 'ਤੇ: AGI ਉਹ ਹੋਵੇਗਾ ਜੋ ਕਿਵੇਂ-ਕਰਣ ਸਮੇਤ ਲਗਭਗ ਕੋਈ ਵੀ ਬੌਧਿਕ ਮੰਗ ਵਾਲਾ ਕੰਮ ਇੱਕ ਮਨੁੱਖ ਦੀ ਤਰ੍ਹਾਂ ਸਿੱਖ ਅਤੇ ਕਰ ਸਕੇ, ਬਿਨਾਂ ਹਰ ਨਵੇਂ ਕੰਮ ਲਈ ਵਿਸ਼ੇਸ਼ ਨਵੀਨ ਡਿਜ਼ਾਈਨ ਦੀ ਲੋੜ।
ਕੁਝ ਨਜ਼ਦੀਕੀ ਸ਼ਬਦ:
ਆਧੁਨਿਕ ਚੈਟਬੋਟਾਂ ਅਤੇ ਇਮੇਜ ਮਾਡਲਾਂ ਦਾ ਕੰਮ ਅਜੇ ਵੀ ਤੰਗ ਹੈ: ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਪਰ ਖੁੱਲ੍ਹੇ-ਅੰਤ, ਬਹੁ-ਖੇਤਰਿਆ ਬੁੱਧੀ ਲਈ ਨਹੀਂ।
ਆਧੁਨਿਕ AGI ਦੀ ਖਵਾਹਿਸ਼ Alan Turing ਦੀ 1950 ਵਾਲੀ ਪ੍ਰਸਤਾਵ ਤੋਂ ਸ਼ੁਰੂ ਹੁੰਦੀ ਹੈ: ਜੇ ਕੋਈ ਮਸ਼ੀਨ ਗੱਲਬਾਤ ਇੰਨੀ ਬੇਰੁਕਾਵਤ ਕਰੇ ਕਿ ਮਨੁੱਖ ਪਛਾਣ ਨਾ ਸਕੇ, ਤਾਂ ਕੀ ਉਹ ਬੁੱਧੀਮਾਨ ਹੈ? ਇਸ ਨੇ ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਨੂੰ ਬਿਹੇਵਿਯਰ ਅਤੇ ਭਾਸ਼ਾ ਦੇ ਸੰਦਰਭ 'ਚ ਰੱਖ ਕੇ ਸੋਚਣ ਦੀ ਰਾਹ ਦਿਖਾਈ।
1950 ਤੋਂ 1980 ਤੱਕ ਖੋਜਕਾਰ symbolic AI ਜਾਂ “GOFAI” ਰਾਹ 'ਤੇ AGI ਲੱਭਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ। ਬੁੱਧੀ ਨੂੰ ਲਾਜਿਕਲ ਨਿਯਮਾਂ 'ਤੇ ਆਧਾਰਿਤ explicit ਸਿੰਬਲ ਮੈਨੀਪੁਲੇਸ਼ਨ ਵਜੋਂ ਦੇਖਿਆ ਗਿਆ। ਤਾਂਤ੍ਰਿਕ ਦਿਤੀ ਪ੍ਰੋਗਰਾਮਾਂ ਨੇ ਕੁਝ ਉਮੀਦ jagai, ਪਰ GOFAI ਨੂੰ ਧਾਰਣਾ, ਆਮ-ਸਮਝ ਅਤੇ ਗੰਦੀ ਅਸਲੀ-ਦੁਨੀਆ ਡੇਟਾ ਦੇ ਨਾਲ ਨਿਭਾਣ ਵਿੱਚ ਮੁਸ਼ਕਲ ਹੋਈ। ਇਸੇ ਕਾਰਨ ਪਹਿਲੀਆਂ ਵਾਰਾਂ AI ਵਿੱਚ ਹੌਲੀ-ਹੌਲੀ ਘਟਾਵਾਂ ਆਈਆਂ ਅਤੇ AGI ਬਾਰੇ ਧੀਮੀ ਸੋਚ ਆਈ।
ਜਦੋਂ ਡੇਟਾ ਅਤੇ ਕੰਪਿਊਟ ਵਧੇ, AI ਨੇ ਹੱਥ-ਤਰੰਗ ਨਿਯਮਾਂ ਤੋਂ ਸਿੱਖਣ ਵੱਲ ਮੋੜਿਆ। ਆਧਿਕਾਰਕ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਅਤੇ ਫਿਰ ਡੀਪ ਲਰਨਿੰਗ ਨੇ ਤਰੱਕੀ ਦੀ ਪਰਿਭਾਸ਼ਾ ਬਦਲੀ: ਗਿਆਨ encode ਕਰਨ ਦੀ ਬਜਾਏ, ਸਿਸਟਮ ਉਦਾਹਰਨਾਂ ਤੋਂ ਪੈਟਰਨ ਸਿੱਖਦੇ ਹਨ।
IBM ਦੀ DeepBlue (ਚੈਸ) ਅਤੇ AlphaGo (Go) ਵਰਗੀਆਂ ਉਪਲਬਧੀਆਂ ਨੂੰ AGI ਵੱਲ ਕਦਮ ਸਮਝਿਆ ਗਿਆ, ਪਰ ਅਸਲ ਵਿੱਚ ਇਹ ਹਰ ਇੱਕ ਖੇਤਰ ਵਿੱਚ ਕਾਫ਼ੀ ਖਾਸ ਢੰਗ ਨਾਲ ਮਾਹਰ ਸਨ—ਇਹਨਾਂ ਨੇ ਦੈਨੰਦਿਨ ਤਰਕ ਜਾਂ ਤਰਾਂ-ਤਰਾਂ ਮੁੱਦਿਆਂ ਵਿੱਚ ਟਰਾਂਸਫਰ ਨਹੀਂ ਕੀਤਾ।
GPT ਸੀਰੀਜ਼ ਨੇ ਭਾਸ਼ਾ ਵਿੱਚ ਇੱਕ ਵੱਡਾ ਉਲਟਾ ਲਿਆਇਆ। GPT-3 ਅਤੇ GPT-4 ਨਿਬੰਧ ਲਿਖ ਸਕਦੇ ਹਨ, ਕੋਡ ਲਿਖ ਸਕਦੇ ਹਨ, ਅਤੇ ਅੰਦਾਜ਼ ਨਕਲ ਕਰ ਸਕਦੇ ਹਨ, ਜਿਸ ਨੇ AGI ਦੇ ਨੇੜੇ ਹੋਣ ਦੀ ਕਹਾਣੀ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ।
ਪਰ ਇਹ ਮਾਡਲ ਹਜੇ ਵੀ ਟੈਕਸਟ 'ਤੇ ਪੈਟਰਨ-ਲਰਨਰ ਹਨ। ਉਹ ਲਕਸ਼ ਨਹੀਂ ਬਣਾਂਦੇ, ਗ੍ਰਾਊਂਡਡ ਦੁਨੀਆ ਮਾਡਲ ਨਹੀਂ ਬਣਾਉਂਦੇ, ਅਤੇ ਆਪਣੀਆਂ ਯੋਗਤਾਵਾਂ ਨੂੰ ਆਪਣੇ-ਆਪ 'ਤੇ ਵਧਾਉਂਦੇ ਨਹੀਂ।
ਹਰੇਕ ਲਹਿਰ—symbolic AI, ਪੁਰਾਣਾ ਮਸ਼ੀਨ ਲਰਨਿੰਗ, ਡੀਪ ਲਰਨਿੰਗ, ਅਤੇ ਹੁਣ LLMs—ਕਾਰਜਕੁਸ਼ਲਤਾਵਾਂ 'ਤੇ ਅਧਾਰਿਤ AGI ਸੁਪਨੇ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਅਗਾਂਹ ਵਧਾਉਂਦੇ ਹਨ, ਫਿਰ ਉਨ੍ਹਾਂ ਦੀਆਂ ਸੀਮਾਵਾਂ ਸ਼ਾਮਿਲ ਹੋਣ 'ਤੇ ਨਵੀਂ ਸਮਝ ਆਉਂਦੀ ਹੈ।
Large language models (LLMs) ਬਹੁਤ ਵੱਡੇ ਟੈਕਸਟ ਸੰਗ੍ਰਹਿ: ਕਿਤਾਬਾਂ, ਵੈੱਬਸਾਈਟਾਂ, ਕੋਡ, ਫੋਰਮ ਆਦਿ 'ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਪੈਟਰਨ-ਲਰਨਰ ਹਨ। ਉਨ੍ਹਾਂ ਦਾ ਲਕਸ਼ਣ ਸਧਾਰਣ ਹੈ: ਦਿੱਤੇ ਗਏ ਟੈਕਸਟ ਦੇ ਆਧਾਰ 'ਤੇ ਅਗਲਾ ਟੋਕਨ ਭਵਿੱਖਬਾਣੀ ਕਰਨਾ।
ਟ੍ਰੇਨਿੰਗ ਤੋਂ ਪਹਿਲਾਂ, ਟੈਕਸਟ ਟੋਕਨਾਂ ਵਿੱਚ ਵੰਡਿਆ ਜਾਂਦਾ ਹੈ: ਇਹ ਪੂਰੇ ਸ਼ਬਦ ("cat"), ਸ਼ਬਦ-ਹਿੱਸੇ ("inter", "esting") ਜਾਂ ਇਨਟਰਪੁੰਕਟੂਏਸ਼ਨ ਹੋ ਸਕਦੇ ਹਨ। ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਮਾਡਲ ਮੁੜ-ਮੁੜ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਲੜੀਆਂ ਵੇਖਦਾ ਹੈ:
"The cat sat on the ___"
ਅਤੇ ਯੋਗ-ਅਗਲੇ ਟੋਕਨਾਂ ("mat", "sofa") ਨੂੰ ਉੱਚ ਸੰਭਾਵਨਾ ਦੇਣਾ ਸਿੱਖਦਾ ਹੈ ਅਤੇ ਅਣਯੋਗ ("presidency") ਨੂੰ ਘੱਟ। ਇਹ ਪ੍ਰਕਿਰਿਆ ਟ੍ਰਿਲੀਅਨਾਂ ਟੋਕਨਾਂ 'ਤੇ ਵਿਆਪਕ ਤੌਰ 'ਤੇ ਹੋਣ ਨਾਲ ਬਿਲੀਅਨ-ਜਿਹੀਆਂ ਆਂਤਰਿਕ ਪੈਰਾਮੀਟਰਾਂ ਨੂੰ ਆਕਾਰ ਵਿੱਚ ਲਿਆਉਂਦੀ ਹੈ।
ਅੰਦਰੋਂ, ਮਾਡਲ ਇੱਕ ਵੱਡਾ ਫੰਕਸ਼ਨ ਹੈ ਜੋ ਟੋਕਨਾਂ ਦੀ ਲੜੀ ਨੂੰ ਅਗਲੇ ਟੋਕਨ ਦਾ ਇੱਕ ਸੰਭਾਵਨਾ-ਵੰਡ ਵਿੱਚ ਬਦਲ ਦਿੰਦਾ ਹੈ। ਟ੍ਰੇਨਿੰਗ ਗਰੇਡੀਅਂਟ ਡਿਸੇਂਟ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਪੈਰਾਮੀਟਰਾਂ ਨੂੰ ਢਾਲਦੀ ਹੈ ਤਾਂ ਜੋ ਭਵਿੱਖਬਾਣੀਆਂ ਡੇਟਾ ਨਾਲ ਬਿਹਤਰ ਮਿਲਣ।
"Scaling laws" ਇੱਕ ਨਿਯਮਤਾ ਵੇਖਾਉਂਦੇ ਹਨ: ਜਿਵੇਂ-ਜਿਵੇਂ ਤੁਸੀਂ ਮਾਡਲ, ਡੇਟਾ ਅਤੇ ਕੰਪਿਊਟ ਵਧਾਉਂਦੇ ਹੋ, ਪ੍ਰਦਰਸ਼ਨ ਇਕ ਨਿਰਧਾਰਤ ਤਰੀਕੇ ਨਾਲ ਸੁਧਰਦਾ ਹੈ। ਵੱਡੇ ਮਾਡਲਾਂ ਨੂੰ ਵਧੇਰੇ ਟੈਕਸਟ 'ਤੇ ਟ੍ਰੇਨ ਕਰਨਾ ਆਮ ਤੌਰ 'ਤੇ ਭਵਿੱਖਬਾਣੀ ਵਿੱਚ ਸੁਧਾਰ ਲਿਆਉਂਦਾ ਹੈ—ਜਦ ਤੱਕ ਡੇਟਾ, ਕੰਪਿਊਟ ਅਤੇ ਟ੍ਰੇਨਿੰਗ ਸਥਿਰਤਾ ਦੀਆਂ ਆਮ ਸੀਮਾਵਾਂ ਹਨ।
LLMs ਤੱਥ ਇਕ ਡੇਟਾਬੇਸ ਵਾਂਗ ਸਟੋਰ ਨਹੀਂ ਕਰਦੇ ਅਤੇ ਨਾ ਹੀ ਮਨੁੱਖਾਂ ਵਾਂਗ ਤਰਕ ਕਰਦੇ ਹਨ। ਉਹ ਅੰਤਰਿਕ ਰੀਤੀ-ਰਿਵਾਜ਼ਾਂ ਨੂੰ encode ਕਰਦੇ ਹਨ: ਕਿਹੜੇ ਸ਼ਬਦ, ਵਾਕਾਂਸ਼ ਅਤੇ ਸੰਰਚਨਾਵਾਂ ਕਿਸ ਸੰਦਰਭ ਵਿੱਚ ਆਮ ਤੌਰ 'ਤੇ ਇਕੱਠੇ ਹਿੰਦੀਆ ਹਨ।
ਉਨ੍ਹਾਂ ਕੋਲ ਗ੍ਰਾਊਂਡਡ ਸੰਕਲਪ ਨਹੀਂ ਹੁੰਦੇ ਜੋ ਧਾਰਣਾਤਮਿਕ ਅਨੁਭਵ ਜਾਂ ਸਮੀਖਿਆ ਨਾਲ ਜੁੜੇ ਹੋਣ। ਇੱਕ LLM "ਲਾਲ" ਜਾਂ "ਭਾਰੀ" ਬਾਰੇ ਗੱਲ ਟੈਕਸਟ ਵਿੱਚ ਉਹਨਾਂ ਸ਼ਬਦਾਂ ਦੀ ਵਰਤੋਂ ਤੋਂ ਹੀ ਕਰ ਸਕਦਾ ਹੈ, ਨਾ ਕਿ ਰੰਗ ਦੇਖਣ ਜਾਂ ਵਸਤੂ ਉਠਾਉਣ ਦੇ ਸਿੱਧੇ ਤਜਰਬੇ ਤੋਂ।
ਇਸ ਕਰਕੇ ਮਾਡਲ ਗਿਆਨਵਾਨ ਦਿੱਸ ਕੇ ਵੀ ਬੇਦਰੁਸਤ ਗਲਤੀਆਂ ਕਰ ਸਕਦੇ ਹਨ: ਉਹ ਪੈਟਰਨਾਂ ਨੂੰ ਵਧਾਉਂਦੇ ਹਨ, ਸੱਚਾਈ ਦੀ ਜਾਂਚ ਨਹੀਂ ਕਰਦੇ।
ਪ੍ਰੀ-ਟ੍ਰੇਨਿੰਗ ਲੰਬਾ ਸ਼ੁਰੂਆਤੀ ਚਰਨ ਹੈ ਜਿੱਥੇ ਮਾਡਲ ਵੱਡੇ ਟੈਕਸਟ ਕੋਰਪਸ 'ਤੇ ਅਗਲਾ ਟੋਕਨ ਪੇਸ਼ਗੋਈ ਕਰਕੇ ਆਮ ਭਾਸ਼ਾਈ ਪੈਟਰਨ ਸਿੱਖਦਾ ਹੈ। ਇਹੀ ਉਹ ਜਗ੍ਹਾ ਹੈ ਜਿੱਥੇ ਬਹੁਤੇ ਸਮਰੱਥਾ ਉਭਰਦੇ ਹਨ।
ਫਿਰ, ਫਾਈਨ-ਟਿਊਨਿੰਗ ਪ੍ਰੀ-ਟ੍ਰੇਨਡ ਮਾਡਲ ਨੂੰ ਨੁਕਤਾ-ਨਜ਼ਰ ਲੱਛਣਾਂ ਲਈ ਅਨੁਕੂਲ ਕਰਦੀ ਹੈ: ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਪਾਲਨਾ, ਕੋਡ ਲਿਖਨਾ, ਅਨੁਵਾਦ, ਜਾਂ ਖਾਸ ਡੋਮੇਨ ਵਿੱਚ ਸਹਾਇਤਾ। ਮਾਡਲ ਨੂੰ ਚੁਣੀਂਦਾ ਉਦਾਹਰਨਾਂ ਦਿਖਾਈਆਂ ਜਾਂਦੀਆਂ ਹਨ ਅਤੇ ਹੌਲੀ-ਹੌਲੀ ਢ਼ਾਲਿਆ ਜਾਂਦਾ ਹੈ।
Reinforcement learning from human feedback (RLHF) ਇੱਕ ਹੋਰ ਪਰਤ ਜੋੜਦਾ ਹੈ: ਮਨੁੱਖ ਮਾਡਲ ਨਤੀਜਿਆਂ ਦੀ ਰੇਟਿੰਗ ਜਾਂ ਤੁਲਨਾ ਕਰਦੇ ਹਨ ਅਤੇ ਮਾਡਲ ਨੂੰ ਲੋਕਾਂ ਦੀ ਪਸੰਦ ਅਨੁਸਾਰ optimize ਕੀਤਾ ਜਾਂਦਾ ਹੈ (ਜਾਂਦਾ ਹੈ ਕਿ ਹੋਰ ਮਦਦਗਾਰ, ਘੱਟ ਨੁਕਸਾਨਪਹੁੰਚ, ਜ਼ਿਆਦਾ ਸੱਚਾ)। RLHF ਮਾਡਲ ਨੂੰ ਨਵੇਂ ਇੰਦ੍ਰੀਆਂ ਜਾਂ ਗਹਿਰੇ ਸਮਝ ਨਹੀਂ ਦਿੰਦਾ; ਇਹ ਮੁੱਖ ਤੌਰ 'ਤੇ ਉਸਨੂੰ ਆਪਣੇ ਸਿੱਖੇ ਗਏ ਦਰਸ਼ਨ ਨੂੰ ਪੇਸ਼ ਕਰਨ ਵਿੱਚ ਆਕਾਰ ਦਿੰਦਾ ਹੈ।
ਇਨ੍ਹਾਂ ਸਭ ਕਦਮਾਂ ਨਾਲ ਐਸੇ ਪ੍ਰਣਾਲੀ ਬਣਦੀਆਂ ਹਨ ਜੋ ਟੈਕਸਟ ਨੂੰ ਪ੍ਰਵਾਹਮਈ ਤਰੀਕੇ ਨਾਲ ਜਨਰੇਟ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਅਗੇੜੀਆਂ ਹਨ—ਪਰ ਉਹ ਗ੍ਰਾਊਂਡਿੰਗ, ਲਕਸ਼, ਜਾਂ ਜਾਗਰੂਕਤਾ ਨਹੀਂ ਪੈਦਾ ਕਰਦੀਆਂ।
ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ ਵਿਸ਼ਾਲ ਰੇਂਜ ਦੇ ਟਾਸਕ ਕਰਕੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਲੱਗਦੇ ਹਨ ਜੋ ਪਹਿਲਾਂ ਮਸ਼ੀਨਾਂ ਲਈ ਦੁਸ਼ਵਾਰ ਸਮਝੇ ਜਾਂਦੇ ਸਨ।
LLMs ਕੰਮਕਾਜੀ ਕੋਡ ਟੁਕੜੇ ਜਨਰੇਟ ਕਰ ਸਕਦੇ ਹਨ, ਮੌਜੂਦਾ ਕੋਡ ਨੂੰ ਰੀਫੈਕਟਰ ਕਰ ਸਕਦੇ ਹਨ, ਅਤੇ ਅਨਜਾਣ ਲਾਇਬ੍ਰੇਰੀਆਂ ਦੀ ਸਧਾਰਨ ਭਾਸ਼ਾ ਵਿੱਚ ਵਿਆਖਿਆ ਕਰ ਸਕਦੇ ਹਨ। ਕਈ ਡਿਵੈਲਪਰਾਂ ਲਈ ਉਹ ਪਹਿਲਾਂ ਹੀ ਕਾਫ਼ੀ ਸਮਰੱਥ ਜੋੜ-ਪ੍ਰੋਗ੍ਰਾਮਰ ਵਾਂਗ ਕੰਮ ਕਰਦੇ ਹਨ: ਐਜ ਕੇਸਾਂ ਸੁਝਾਉਣਾ, ਸਪੱਸ਼ਟ ਬੱਗ ਫੜਨਾ, ਅਤੇ ਮੁਲਾਂਕਣ ਮਾਡਿਊਲ ਬਣਾਉਣਾ।
ਉਹ ਸੰਖੇਪ ਕਰਨ ਵਿੱਚ ਵੀ ਮਹਿਰ ਹਨ। ਲੰਬੇ ਰਿਪੋਰਟ, ਪੇਪਰ, ਜਾਂ ਈਮੇਲ ਥ੍ਰੇਡ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲੋਂ ਲੈ ਕੇ, ਇੱਕ LLM ਕੁੰਜੀ-ਬਿੰਦੂ, ਕਾਰਵਾਈ ਆਈਟਮ, ਜਾਂ ਵੱਖ-ਵੱਖ ਦਰਸ਼ਕਾਂ ਲਈ ਟੋਨ ਅਨੁਸਾਰ ਬਦਲ ਸਕਦਾ ਹੈ।
ਅਨੁਵਾਦ ਵੱਧੀਆਂ ਭਾਸ਼ਾਵਾਂ ਨੂੰ ਸੰਭਾਲਣ ਵਿੱਚ ਵੀ ਇੱਕ ਤਾਕਤ ਹੈ—ਅਕਸਰ ਡੇਲੀਕੀ ਅਤੇ ਰਜਿਸਟਰ ਦੇ ਸੂਖਮ ਅੰਤਰਾਂ ਨੂੰ ਪ੍ਰੋਫੈਸ਼ਨਲ ਕੰਮ ਲਈ ਕਾਫ਼ੀ ਚੰਗੀ ਤਰ੍ਹਾਂ ਫੜ ਲੈਂਦੇ ਹਨ।
ਜਿਵੇਂ-ਜਿਵੇਂ ਮਾਡਲ ਸਕੇਲ ਹੋ ਰਹੇ ਹਨ, ਨਵੀਆਂ ਯੋਗਤਾਵਾਂ “ਬਿਨਾ ਇਸ਼ਾਰੇ” ਪ੍ਰਗਟ ਹੋਣ ਲਗਦੀਆਂ ਹਨ: ਲਾਜਿਕ ਪਹੇਲੀਆਂ ਸੌਲਵ ਕਰਨਾ, ਪੇਸ਼ੇਵਰ ਪ੍ਰੀਖਿਆਵਾਂ ਪਾਸ ਕਰਨਾ, ਜਾਂ ਉਹ ਕਈ-ਕਦਮਾਂ ਵਾਲੀਆਂ ਹਦਾਇਤਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਜੋ ਪਹਿਲੇ ਵਰਜ਼ਨਾਂ ਤੋਂ ਨਾਹ ਹੋਦੀ ਸੀ। ਕੁਝ ਬੈਂਚਮਾਰਕਾਂ—ਗਣਿਤ ਸਮੱਸਿਆਵਾਂ, ਲਾਅ ਦੀਆਂ ਪ੍ਰੀਖਿਆਵਾਂ, ਮੈਡੀਕਲ ਕਵੀਜ਼—ਤੇ ਉੱਚ LLMs ਹੁਣ ਆਮ ਮਨੁੱਖੀ ਅੰਕਾਂ ਦੇ ਸਮਾਨ ਜਾਂ ਉੱਤੇ ਪਹੁੰਚ ਰਹੇ ਹਨ।
ਇਹ ਉਭਰਦਾ ਵਿਵਹਾਰ ਲੋਕਾਂ ਨੂੰ ਮਾਡਲ ਨੂੰ ਮਨੁੱਖੀ ਤਰ੍ਹਾਂ "ਤਰਕ ਕਰਨ ਵਾਲਾ" ਕਹਿਣ ਲਈ ਪ੍ਰਲੁਭਿਤ ਕਰਦਾ ਹੈ। ਪ੍ਰਦਰਸ਼ਨ ਗ੍ਰਾਫ ਅਤੇ ਲੀਡਰਬੋਰਡ ਇਹ ਧਾਰਨਾ ਤੱਕ ਹੋੜੇ ਕਰਦੇ ਹਨ ਕਿ ਅਸੀਂ AGI ਦੇ ਨੇੜੇ ਆ ਰਹੇ ਹਾਂ।
LLMs ਨੂੰ ਇਸ ਤਰੀਕੇ ਨਾਲ ਟ੍ਰੇਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਕਿ ਉਹ ਪਿਛਲੇ ਡੇਟਾ ਦੇ ਪੈਟਰਨਾਂ ਨੂੰ ਧਾਰਣ ਕਰਕੇ ਟੈਕਸਟ ਜਾਰੀ ਰੱਖਣ। ਇਹ ਲਕਸ਼, ਸਕੇਲ, ਅਤੇ ਸੰਦੇਸ਼-ਸੰਰਚਨਾ ਨਹੀਂ—ਇਹ ਉਹਨਾਂ ਨੂੰ ਮਾਹਿਰ ਵਰਗਾ ਅਤੇ ਏਜੰਟ-ਜਿਹਾ ਲਗنے ਲਈ ਕਾਫ਼ੀ ਹੈ: ਉਹ ਆਤਮ ਵਿਸ਼ਵਾਸ ਵਾਲੇ ਟੋਨ 'ਚ ਗੱਲ ਕਰਦੇ ਹਨ, ਸੈਸ਼ਨ ਦੇ ਅੰਦਰ ਸੰਦਰਭ ਯਾਦ ਰੱਖਦੇ ਹਨ, ਅਤੇ ਆਪਣੇ ਜਵਾਬਾਂ ਨੂੰ ਸੁਚੱਜੀ ਤਰ੍ਹਾਂ ਜਸਟਿਫਾਈ ਕਰ ਸਕਦੇ ਹਨ।
ਪਰ ਇਹ ਸਮਝ ਦਾ ਮਿਰਾਜ਼ ਹੈ। ਮਾਡਲ ਨੂੰ ਪਤਾ ਨਹੀਂ ਕਿ ਕੋਡ ਚਲਣ ਤੇ ਕੀ ਹੋਵੇਗਾ, ਮੈਡੀਕਲ ਡಯਾਗਨੋਸਿਸ ਕਿਸ ਰੋਗੀ ਲਈ ਕੀ ਮਤਲਬ ਹੈ, ਜਾਂ ਕਿਸ ਯੋਜਨਾ ਤੋਂ ਕਿਹੜੀਆਂ ਭੌਤਿਕ ਕਾਰਵਾਈਆਂ ਨਿਕਲਦੀਆਂ ਹਨ। ਉਸਦੇ ਪਾਸ ਟੈਕਸਟ ਤੋਂ ਪਰੇ ਕੋਈ ਗ੍ਰਾਊਂਡ ਨਹੀਂ ਹੈ।
ਇਨਸਾਨਾਂ ਲਈ ਤਯਾਰ ਕੀਤੇ ਟੈਸਟਾਂ 'ਤੇ ਉੱਤਰ ਚੰਗੇ ਹੋਣ ਦਾ ਮਤਲਬ AGI ਨਹੀਂ ਹੁੰਦਾ; ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਵੱਡੇ-ਪੈਮਾਨੇ 'ਤੇ ਪੈਟਰਨ-ਲਰਨਿੰਗ ਕਈ ਖਾਸ ਕੁਸ਼ਲਤਾਵਾਂ ਦੀ ਨਕਲ ਕਰ ਸਕਦੀ ਹੈ—ਪਰ ਉਹ ਲਚਕੀਲਾ, ਗ੍ਰਾਊਂਡਡ, ਬਹੁ-ਖੇਤਰਿਆ ਇੰਟੈਲਿਜੈਂਸ ਨਹੀਂ ਹੈ ਜੋ AGI ਦੀ ਪਰਿਭਾਸ਼ਾ ਵਿੱਚ ਆਉਂਦੀ ਹੈ।
LLMs ਟੈਕਸਟ-ਪ੍ਰਡਿਕਟਰ ਵਿੱਚ ਸ਼ਾਨਦਾਰ ਹਨ, ਪਰ ਉਹੀ ਡਿਜ਼ਾਈਨ ਉਨ੍ਹਾਂ ਲਈ ਕੁਝ ਕਠੋਰ ਸੀਮਾਵਾਂ ਪੈਦਾ ਕਰਦਾ ਹੈ।
LLMs ਨਾ ਦੇਖਦੇ, ਨਾ ਸੁਣਦੇ, ਨਾ ਹਿਲਦੇ-ਡੋਲਦੇ, ਨਾ ਵਸਤੂਆਂ ਨੂੰ ਸੰਭਾਲਦੇ। ਉਹਨਾਂ ਦਾ ਦੁਨੀਆ ਨਾਲ ਇਕੋ ਸੰਪਰਕ ਟੈਕਸਟ ਰਾਹੀਂ ਹੈ (ਅਤੇ ਕੁਝ ਨਵੇਂ ਮਾਡਲਾਂ ਵਿੱਚ ਸਟੈਟਿਕ ਚਿੱਤਰਾਂ ਜਾਂ ਛੋਟੇ ਕਲਿੱਪ ਵੀ)। ਉਨ੍ਹਾਂ ਕੋਲ ਕੋਈ ਲਗਾਤਾਰ ਸੰਵੇਦਨਾਤਮਕ ਧਾਰਾ, ਕੋਈ ਸਰੀਰ, ਜਾਂ ਕਾਰਵਾਈ ਕਰਨ ਅਤੇ ਨਤੀਜੇ ਵੇਖਣ ਦਾ ਤਰੀਕਾ ਨਹੀਂ।
ਸੈਂਸਰਾਂ ਅਤੇ ਸਰੀਰ ਦੇ ਬਿਨਾਂ, ਉਹ ਇੱਕ ਗ੍ਰਾਊਂਡਡ, ਲਗਾਤਾਰ ਅੱਪਡੇਟ ਹੋਣ ਵਾਲਾ ਦੁਨੀਆ ਮਾਡਲ ਨਹੀਂ ਬਣਾਉਂਦੇ। "ਭਾਰੀ", "ਚਿਪਚਿਪਾ" ਜਾਂ "ਨਾਜੁਕ" ਵਰਗੇ ਸ਼ਬਦ ਟੈਕਸਟ ਵਿੱਚ ਇਕ-ਦੂਜੇ ਨਾਲ ਨਜ਼ਦੀਕੀ ਹੋਣ ਦਾ ਨਤੀਜਾ ਹਨ, ਸਿੱਧੇ ਤਜਰਬੇ ਨਹੀਂ। ਇਸ ਨਾਲ ਉਹ ਸਮਝ ਦਾ ਪ੍ਰਭਾਵ ਕਰਨਗੇ, ਪਰ ਉਹ ਪਿਛਲੇ ਵਰਣਨਾਂ ਨੂੰ ਮੁੜ-ਬਨਾਉਣ ਲੇ ਹੀ ਸਮਰੱਥ ਹੁੰਦੇ ਹਨ, ਨਾ ਕਿ ਡਾਇਰੈਕਟ ਇੰਟਰੈਕਸ਼ਨ ਰਾਹੀਂ ਨਵੇਂ ਨਿਯਮ ਸਿੱਖਣ।
ਕਿਉਂਕਿ LLM ਇੱਕ ਸੀਕਵੈਂਸ ਨੂੰ ਜਾਰੀ ਰੱਖਣ ਲਈ ਟ੍ਰੇਨ ਕੀਤਾ ਗਿਆ ਹੈ, ਉਹ ਸਭ ਕੁਝ ਉਤਪੰਨ ਕਰਦਾ ਹੈ ਜੋ ਉਸਦੇ ਸਿੱਖੇ ਪੈਟਰਨਾਂ ਲਈ ਸਭ ਤੋਂ ਵਧੀਆ ਦਿਖਾਈ ਦੇਵੇ—ਨਾ ਕਿ ਜੋ ਸੱਚ ਹੋਵੇ। ਜਦੋਂ ਡੇਟਾ ਘੱਟ ਹੋਵੇ ਜਾਂ ਟਕਰਾਅ ਹੋਵੇ, ਉਹ ਸਿਰਫ਼ ਯੋਗ-ਲੱਗਣ ਵਾਲੀ ਕਹਾਣੀ ਭਰ ਦੇਂਦਾ ਹੈ।
ਮਾਡਲ ਕੋਲ ਕੋਈ ਸਥਾਈ ਅੰਦਰੂਨੀ ਧਾਰਣਾ ਨਹੀਂ ਹੁੰਦੀ। ਹਰ ਜਵਾਬ ਪ੍ਰਾਂਪਟ ਅਤੇ ਭਾਰਾਂ ਤੋਂ ਤਾਜ਼ਾ ਤੌਰ 'ਤੇ ਬਣਦੀ ਹੈ; ਮਨੁੱਖਾਂ ਵਾਂਗ ਇੱਕ ਅੰਦਰੂਨੀ ਖਾਤਾ ਨਹੀਂ ਹੁੰਦਾ ਜੋ "ਮੈਂ ਕੀ ਧਾਰਦਾ ਹਾਂ"। ਲੰਬੀ-ਅਵਧੀ ਯਾਦ ਬਾਹਰੀ ਸਟੋਰੇਜ ਦੇ ਨਾਲ ਜੋੜੀ ਜਾ ਸਕਦੀ ਹੈ, ਪਰ ਕੇਂਦਰੀ ਪ੍ਰਣਾਲੀ ਇਨਸਾਨਾਂ ਦੀ ਤਰ੍ਹਾਂ ਧਾਰਣਾਵਾਂ ਨੂੰ ਅਪਡੇਟ ਕਰਨ ਜਾਂ ਸੰਭਾਲਣ ਦਾ ਤਰੀਕਾ ਨਹੀਂ ਰੱਖਦੀ।
LLM ਦੀ ਟ੍ਰੇਨਿੰਗ ਆਫਲਾਈਨ, ਸੰਸાધਨ-ਤੀਬਰ ਪ੍ਰਕਿਰਿਆ ਹੁੰਦੀ ਹੈ। ਇਸ ਦਾ ਗਿਆਨ ਅਪਡੇਟ ਕਰਨ ਦਾ ਸਧਾਰਣ ਤਰੀਕਾ ਆਮਤੌਰ 'ਤੇ ਮੁੜ-ਟ੍ਰੇਨਿੰਗ ਜਾਂ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਹੈ, ਨਾ ਕਿ ਹਰ ਇੰਟਰੈਕਸ਼ਨ ਤੋਂ ਹੌਲੀ-ਹੌਲੀ ਸਿੱਖਣਾ।
ਇਸ ਨਾਲ ਇੱਕ ਅਹਿਮ ਸੀਮਾਰੈਂਖ ਬਣਦਾ ਹੈ: ਮਾਡਲ ਤੇਜ਼ੀ ਨਾਲ ਬਦਲ ਰਹੀ ਦੁਨੀਆ ਨੂੰ ਭਰੋਸੇਯੋਗੀ ਤਰ੍ਹਾਂ ਟ੍ਰੈਕ ਨਹੀਂ ਕਰ ਸਕਦਾ, ਆਪਣੀਆਂ ਸੰਕਲਪਾਂ को جاري अनुभव ਦੇ ਆਧਾਰ 'ਤੇ ਢਾਲ ਨਹੀਂ ਸਕਦਾ, ਜਾਂ ਗਹਿਰੇ ਗਲਤ ਧਾਰਣਾਵਾਂ ਨੂੰ ਕਦਮ-ਦਰ-ਕਦਮ ਸਿੱਧ ਕਰਨ ਦੇ ਰਾਹੀਂ ਠੀਕ ਨਹੀਂ ਕਰ ਸਕਦਾ। ਸਭ ਤੋਂ ਵਧੀਆ ਹਾਲਤ ਵਿੱਚ ਵੀ ਇਹ ਸਿਮੂਲੇਟ ਕਰ ਸਕਦਾ ਹੈ ਕਿ ਉਹ ਐਡਜਸਟ ਹੋ ਰਿਹਾ ਹੈ, ਪਰ ਅਸਲ ਅਪਡੇਟ ਨਹੀਂ ਕਰਦਾ।
LLMs ਸ਼ਬਦਾਂ ਦੀ ਆੰਕੜੀਕ ਨਿਯਮਤਾਵਾਂ ਨੂੰ ਕੈਪਚਰ ਕਰਨ ਵਿੱਚ ਪ੍ਰਾਵੀਣ ਹਨ: ਕਿਹੜੇ ਸ਼ਬਦ ਇੱਕਠੇ ਆਉਂਦੇ ਹਨ, ਕਿਹੜੇ ਵਾਕ ਅਕਸਰ ਇਕ-ਦੂਜੇ ਤੋਂ ਬਾਅਦ ਆਉਂਦੇ ਹਨ, ਕਿਹੜੀਆਂ ਵਿਆਖਿਆਵਾਂ ਦਿਖਾਈ ਦਿੰਦੀਆਂ ਹਨ। ਪਰ ਇਹ ਕਾਰਨ-ਕੋਈ ਸੰਝ ਦੀ ਸਮਝ ਨਹੀਂ ਹੈ।
ਕਾਰਨਾਤਮਕ ਸਮਝ ਵਿਚ ਸਿਧਾਂਤ ਬਣਾਉਣਾ, ਹਸਤਖੇਪ ਕਰਨਾ, ਜੋ ਨਤੀਜਾ ਆਉਂਦਾ ਹੈ ਦੇਖ ਕੇ ਅਪਡੇਟ ਕਰਨਾ ਅਤੇ ਜਦ ਭਵਿੱਖਬਾਣੀ ਫੇਲ ਹੋਵੇ ਤਾਂ ਅੰਦਰੂਨੀ ਮਾਡਲ ਬਦਲਣਾ ਸ਼ਾਮਿਲ ਹੈ। ਟੈਕਸਟ-ਕੇਵਲ ਪ੍ਰਡਿਕਟਰ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਹਸਤਖੇਪ ਕਰਨ ਜਾਂ ਹੈਰਾਨ ਹੋਣ ਦਾ ਕੋਈ ਸਿੱਧਾ ਤਰੀਕਾ ਨਹੀਂ ਹੈ। ਇਹ ਪ੍ਰਯੋਗ ਦਾ ਵਰਣਨ ਕਰ ਸਕਦਾ ਹੈ ਪਰ ਇੱਕ ਪ੍ਰਯੋਗ ਨਹੀਂ ਕਰ ਸਕਦਾ।
ਜਿਸ ਤਰ੍ਹਾਂ ਇੱਕ ਪ੍ਰਣਾਲੀ ਪਿਛਲੇ ਟੈਕਸਟ ਤੋਂ ਟੈਕਸਟ ਅਨੁਮਾਨ ਕਰਨ ਤੱਕ ਸੀਮਤ ਰਹਿੰਦੀ ਹੈ, ਉਹ ਮੂਲ ਰੂਪ ਵਿੱਚ ਪੈਟਰਨ ਲਰਨਰ ਹੀ ਰਹਿੰਦੀ ਹੈ। ਇਹ ਤਰਕ ਦੀ ਨਕਲ, ਕਾਰਨਾਂ ਦਾ ਵਰਣਨ, ਅਤੇ ਆਪਣੀਆਂ ਧਾਰਣਾਵਾਂ ਨੂੰ ਨਕਲ ਕਰ ਸਕਦੀ ਹੈ, ਪਰ ਇਸਦੀ ਆਪਣੀ ਧਰਤੀ ਨਹੀਂ ਹੈ ਜਿੱਥੇ ਇਸ ਦੀਆਂ ਧਾਰਣਾਵਾਂ ਪ੍ਰਭਾਵਾਂ ਨਾਲ ਪਰੀਖਿਆ ਹੁੰਦੀਆਂ। ਇਹ ਫ਼ਰਕ ਭਾਸ਼ਾ ਮਹਿਰਤਾ ਇੱਕੱਲੀ AGI ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ 'ਚ ਕਿਉਂ ਅਸਫਲ ਹੋ ਸਕਦੀ ਹੈ, ਇਹਦੀ ਕੇਂਦਰੀ ਵਜਹ ਹੈ।
ਭਾਸ਼ਾ ਇੰਟੈਲਿਜੈਂਸ ਲਈ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਇੰਟਰਫੇਸ ਹੈ, ਪਰ ਖ਼ੁਦ ਇੰਟੈਲਿਜੈਂਸ ਦੀ ਪਦਾਰਥਕ ਸਮੱਗਰੀ ਨਹੀਂ। ਜੇਕਰ ਇੱਕ ਸਿਸਟਮ ਵਿਵਹਾਰਕ ਤੌਰ 'ਤੇ ਮੰਨਣਯੋਗ ਵਾਕ ਬਣਾਉਂਦਾ ਹੈ ਤਾਂ ਵੀ ਉਹ ਇੱਕ ਏਜੰਟ ਜੋ ਦੁਨੀਆ ਨੂੰ ਸਮਝਦਾ, ਯੋਜਨਾ ਬਣਾਉਂਦਾ ਅਤੇ ਕਾਰਵਾਈ ਕਰਦਾ ਹੈ, ਉਸ ਤੋਂ ਬਹੁਤ ਵੱਖਰਾ ਹੋ ਸਕਦਾ ਹੈ।
ਇਨਸਾਨ ਸੰਕਲਪ ਇਸ ਤਰੀਕੇ ਸਿੱਖਦੇ ਹਨ ਕਿ ਉਹ ਦੇਖਦੇ, ਛੁਹਦੇ, ਹਿਲਦੇ-ਡੋਲਦੇ ਅਤੇ ਸੰਭਾਲਦੇ ਹਨ। "ਕੱਪ" ਸਿਰਫ ਇੱਕ ਸ਼ਬਦ ਹੀ ਨਹੀਂ—ਇੱਕ ਚੀਜ਼ ਹੈ ਜਿਸਨੂੰ ਤੁਸੀਂ ਫੜ ਸਕਦੇ, ਭਰ ਸਕਦੇ, ਗਿਰਾ ਸਕਦੇ ਜਾਂ ਤੋੜ ਸਕਦੇ ਹੋ। ਮਨੋਵਿਗਿਆਨੀਆਂ ਇਸ ਨੂੰ ਗ੍ਰਾਊਂਡਿੰਗ ਕਹਿੰਦੇ ਹਨ: ਸੰਕਲਪ ਧਾਰਣਾ ਅਤੇ ਕਰਵਾਈ ਨਾਲ ਜੁੜੇ ਹੁੰਦੇ ਹਨ।
ਇੱਕ ਕ੍ਰਿਤ੍ਰਿਮ ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਸੰਭਵ ਤੌਰ 'ਤੇ ਇਸੇ ਤਰ੍ਹਾਂ ਦੀ ਗ੍ਰਾਊਂਡਿੰਗ ਦੀ ਲੋੜ ਰੱਖੇਗਾ। ਵਿਸ਼ਵਾਸਯੋਗ ਤਰ੍ਹਾਂ ਜਨਰਲਾਈਜ਼ ਕਰਨ ਲਈ, ਉਸਨੂੰ ਚਿੰਨ੍ਹਾਂ (ਜਿਵੇਂ ਸ਼ਬਦ ਜਾਂ ਅੰਦਰੂਨੀ ਪ੍ਰਤੀਨਿਧਾਨ) ਨੂੰ ਭੌਤਿਕ ਅਤੇ ਸਮਾਜਿਕ ਦੁਨੀਆ ਦੀਆਂ ਸਥਿਰ ਨਿਯਮਤਾਵਾਂ ਨਾਲ ਜੋੜਨਾ ਪਵੇਗਾ।
ਸਟੈਂਡਰਡ LLMs ਫਿਰ ਵੀ ਕੇਵਲ ਟੈਕਸਟ ਤੋਂ ਸਿੱਖਦੇ ਹਨ। ਉਹਨਾਂ ਦੀ "ਕੱਪ" ਦੀ ਸਮਝ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਾਂਖੀਕੀ ਹੈ: ਅਰਥਾਤ, ਅਰੰਭਕ ਵਾਕਾਂ ਵਿੱਚ ਸ਼ਬਦਾਂ ਦੇ ਸੰਬੰਧਾਂ ਤੋਂ। ਗੱਲਬਾਤ ਅਤੇ ਕੋਡ ਲਈ ਇਹ ਸ਼ਕਤੀਸ਼ਾਲੀ ਹੈ, ਪਰ ਅਜਿਹੇ ਖੇਤਰਾਂ 'ਚ ਨਾਜ਼ੁਕ ਹੁੰਦੀ ਹੈ ਜਿੱਥੇ ਸਿੱਧੇ ਅਨੁਭਵ ਜ਼ਰੂਰੀ ਹੁੰਦੇ ਹਨ।
ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਸਮੇਂ ਦੇ ਨਾਲ ਨਿਰੰਤਰਤਾ ਵੀ ਮੰਗਦੀ ਹੈ: ਲੰਬੀ-ਅਵਧੀ ਯਾਦ, ਸਥਾਈ ਲਕਸ਼ ਅਤੇ ਸਥਿਰ ਪਸੰਦਾਂ। ਮਨੁੱਖ ਮਹੀਨਿਆਂ ਜਾਂ ਸਾਲਾਂ ਤੱਕ ਅਨੁਭਵ ਇਕੱਠਾ ਕਰਦੇ ਹਨ, ਧਾਰਣਾਵਾਂ ਬਦਲਦੇ ਹਨ, ਅਤੇ ਪ੍ਰੋਜੈਕਟ ਚਲਾਉਂਦੇ ਹਨ।
LLMs ਦੇ ਕੋਲ ਆਪਣੀ ਅੰਦਰੂਨੀ, ਸਥਾਈ ਯਾਦ ਨਹੀਂ ਹੁੰਦੀ ਅਤੇ ਨਾ ਹੀ ਕੋਕਿੰਗ-ਜਿਹੇ ਅਧਿਕਾਰਿਕ ਲਕਸ਼ ਹਨ। ਕੋਈ ਵੀ ਲਗਾਤਾਰਤਾ ਜਾਂ "ਨਿਜੀਤਾ" ਬਾਹਰੀ ਸੰਦਾਂ (ਡੇਟਾਬੇਸ, ਪ੍ਰੋਫਾਈਲ, ਸਿਸਟਮ ਪ੍ਰਾਂਪਟ) ਰਾਹੀਂ ਜੋੜਨੀ ਪੈਂਦੀ ਹੈ। ਮੂਲ ਤੌਰ 'ਤੇ ਹਰ ਕਮਾਂਡ ਇਕ ਨਵਾਂ ਪੈਟਰਨ-ਮੈਚਿੰਗ ਅਭਿਆਸ ਹੈ, ਨਾ ਕਿ ਸੰਯੁਕਤ ਜੀਵਨ-ਇਤਿਹਾਸ ਦਾ ਹਿੱਸਾ।
AGI ਅਕਸਰ ਇਸ ਤਰ੍ਹਾਂ ਪਰਿਭਾਸ਼ਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਕਿ ਉਹ ਸਿਰਫ਼ ਬਹੁਤ ਸਾਰੇ ਕੰਮਾਂ ਨੂੰ ਨਵੇਂ ਢੰਗ ਨਾਲ ਸੁਲਝਾ ਸਕੇ: ਕਾਰਨ-ਅਧਾਰਤ ਤਰਕ ਕਰਨਾ ਅਤੇ ਵਾਤਾਵਰਨ ਵਿੱਚ ਹਸਤਖੇਪ ਕਰਨਾ। ਇਸਦਾ ਅਰਥ:
LLMs ਏਜੰਟ ਨਹੀਂ ਹਨ; ਉਹ ਸੀਕਵੈਂਸ ਵਿੱਚ ਅਗਲਾ ਟੋਕਨ ਜਨਰੇਟ ਕਰਦੇ ਹਨ। ਉਹ ਯੋਜਨਾਵਾਂ ਦਾ ਵਰਣਨ ਕਰ ਸਕਦੇ ਹਨ ਜਾਂ ਕਾਰਨ ਨੂੰ ਬਿਆਨ ਕਰ ਸਕਦੇ ਹਨ ਕਿਉਂਕਿ ਟੈਕਸਟ ਵਿੱਚ ਅਜਿਹੇ ਪੈਟਰਨ ਮੌਜੂਦ ਹਨ, ਪਰ ਉਹ ਮੂਲ ਤੌਰ 'ਤੇ ਕਾਰਵਾਈ ਕਰਨ, ਨਤੀਜੇ ਵੇਖਣ ਅਤੇ ਆਪਣੇ ਅੰਦਰੂਨੀ ਮਾਡਲ ਨੂੰ ਅਪਡੇਟ ਕਰਨ ਵਿੱਚ stays ਨਹੀਂ ਰੱਖਦੇ।
ਇੱਕ LLM ਨੂੰ ਕਾਰਵਾਈ ਕਰਨ ਵਾਲੀ ਪ੍ਰਣਾਲੀ ਬਣਾਉਣ ਲਈ, ਇੰਜੀਨੀਅਰਾਂ ਨੂੰ ਇਸ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਅਜਿਹੇ ਬਾਹਰੀ ਹਿੱਸੇ ਬਣਾਉਣ ਪੈਂਦੇ ਹਨ ਜੋ ਪਰੈਸੈਪਸ਼ਨ, ਯਾਦ, ਟੂਲ-ਉਪਯੋਗ ਅਤੇ ਕੰਟਰੋਲ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ। ਭਾਸ਼ਾ ਮਾਡਲ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਸੁਝਾਵ-ਅੰਦਰੂਨੀ ਯੰਤਰ ਬਣ ਜਾਂਦਾ ਹੈ, ਪਰ ਪੂਰੇ AGI-ਜਿਹੇ ਏਜੰਟ ਦਾ ਸਾਰ ਨਹੀਂ।
ਸੰਖੇਪ ਵਿੱਚ, ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਗ੍ਰਾਊਂਡਡ ਸੰਕਲਪ, ਲੰਬੀ-ਅਵਧੀ ਲਕਸ਼, ਕਾਰਨਾਤਮਕ ਮਾਡਲ ਅਤੇ ਦੁਨੀਆ ਨਾਲ ਅਨੁਕੂਲਤਾ ਮੰਗਦੀ ਹੈ। ਭਾਸ਼ਾ 'ਤੇ ਕਾਬੂ—ਜਦ ਕਿ ਬਹੁਤ ਲਾਭਦਾਇਕ ਹੈ—ਉਸ ਵੱਡੇ ਚਿੱਤਰ ਦਾ ਕੇਵਲ ਇਕ ਹਿੱਸਾ ਹੈ।
ਜਦੋਂ ਲੋਕ ਇੱਕ ਪ੍ਰਵਾਹਮਈ ਮਾਡਲ ਨਾਲ ਗੱਲ ਕਰਦੇ ਹਨ, ਤਾਂ ਇਹ ਕੁਦਰਤੀ ਲੱਗਦਾ ਹੈ ਕਿ ਦੂਜੇ ਪਾਸੇ ਇੱਕ ਮਨ ਹੈ। ਇਹ ਭ੍ਰਮ ਤਗੜੀ ਹੈ, ਪਰ ਇਹ ਭ੍ਰਮ ਹੀ ਹੈ।
ਖੋਜਕਾਰ ਇਸ 'ਤੇ ਰਾਜ਼ੀ ਨਹੀਂ ਹਨ ਕਿ ਕਿਸੇ ਕ੍ਰਿਤ੍ਰਿਮ ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਨੂੰ ਚੇਤਨਾ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ ਜਾਂ ਨਹੀਂ।
ਅਸੀਂ ਅਜੇ ਕੋਈ ਪਰਖਯੋਗ ਥੀਉਰੀ ਨਹੀਂ ਰੱਖਦੇ ਜੋ ਇਹ ਗੱਲ ਸਪਸ਼ਟ ਕਰ ਸਕੇ। ਇਸ ਲਈ ਇਹ ਪਹਿਲੇ-ਪਹੁੰਚ 'ਤੇ ਮਹੱਤਵਪੂਰਨ ਨਹੀਂ ਹੈ ਕਿ AGI ਨੂੰ ਬੇਬੇ-ਚੇਤਨਾ ਹੋਵੇ। ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਅਸੀਂ ਸਪਸ਼ਟ ਰਹੀਏ ਕਿ ਮੌਜੂਦਾ LLMs ਵਿੱਚ ਕੀ ਘਾਟ ਹੈ।
ਇੱਕ ਵੱਡਾ ਭਾਸ਼ਾ ਮਾਡਲ ਅਗਲਾ-ਟੋਕਨ ਪ੍ਰਡਿਕਟਰ ਹੈ ਜੋ ਟੈਕਸਟ ਦੇ ਸਨੇਪਸ਼ਾਟ 'ਤੇ ਕੰਮ ਕਰਦਾ ਹੈ। ਇਸਦੇ ਵਿੱਚ ਇੱਕ ਸਥਾਈ ਪਛਾਣ ਨਹੀਂ ਹੁੰਦੀ—ਨਾਹ ਹੀ ਸੈਸ਼ਨਾਂ 'ਚ ਨਾਂ ਹੀ ਟਰਨ-ਟਰਨ—ਸਿਵਾਏ ਜਿਹੜਾ ਪ੍ਰਾਂਪਟ ਅਤੇ ਛੋਟੀ-ਅਵਧੀ ਸੰਦੇਸ਼-ਸੰਦਰਭ ਕੋਡ ਕਰਦਾ ਹੈ।
ਜਦੋਂ LLM "ਮੈਂ" ਕਹਿੰਦਾ ਹੈ, ਉਹ ਸਿਰਫ਼ ਡੇਟਾ ਤੋਂ ਸਿਖੀਆਂ ਭਾਸ਼ਾਈ ਰਵਾਇਤਾਂ ਦੀ ਪਾਲਨਾ ਕਰ ਰਿਹਾ ਹੁੰਦਾ ਹੈ, ਨਾ ਕਿ ਅੰਦਰੂਨੀ ਵਿਸ਼ਾ-ਪਿਛਾਣ ਦੀ ਨਿਸ਼ਾਨੀ।
ਚੇਤਨ ਜੀਵ ਅਨੁਭਵ ਰੱਖਦੇ ਹਨ: ਦਰਦ, ਬੋਰ, ਜਿਗਿਆਸਾ, ਤ੍ਰਿਪਤੀ। ਉਹਨਾਂ ਦੀਆਂ ਅੰਦਰੂਨੀ ਪਸੰਦਾਂ ਅਤੇ ਲਕਸ਼ ਹੁੰਦੀਆਂ ਹਨ।
LLMs ਦੇ ਨਾਲ-ਨਾਲ:
ਉਨ੍ਹਾਂ ਦਾ "ਵਰਤਾਰਾ" ਪੈਟਰਨ-ਮੈਚਿੰਗ ਦਾ ਨਤੀਜਾ ਹੈ, ਨਾ ਕਿ ਅੰਦਰੂਨੀ ਜੀਵਨ ਦਾ ਪ੍ਰਗਟਾਵਾ।
ਕਿਉਂਕਿ ਭਾਸ਼ਾ ਹੋਰ ਮਨਾਂ ਨੂੰ ਸਮਝਣ ਦਾ ਮੂਲ ਦਰਵਾਜ਼ਾ ਹੈ, ਸੁਤੰਤਰ ਚਰਚਾ ਅਕਸਰ ਵਿਅਕਤੀਵਾਦ ਦੀ ਲੋੜ ਪੈਦਾ ਕਰ ਦਿੰਦੀ ਹੈ। ਪਰ LLMs ਵਿੱਚ ਇਹੀ ਸਭ ਤੋਂ ਵੱਡੀ ਗਲਤਫ਼ਹਮੀ ਦਾ ਸਰੋਤ ਹੈ।
LLMs ਨੂੰ ਮਨੁੱਖੀ ਰੂਪ ਦੇ ਤੌਰ 'ਤੇ ਦੇਖਣ ਨਾਲ:
LLMs ਨੂੰ ਲੋਕ ਸਮਝਣ ਅਤੇ AGI ਤੇ ਵਾਸਤਵਿਕ AI ਖ਼ਤਰੇ ਬਾਰੇ ਸੋਚਣ ਵਿੱਚ ਅਸਾਨੀ ਨਾਲ ਭੁੱਲ ਹੋ ਜਾਂਦੀ ਹੈ। ਯਕੀਨ ਨਾਲ ਸੋਚਣ ਲਈ ਸਾਨੂੰ ਯਾਦ ਰੱਖਣਾ ਹੋਵੇਗਾ ਕਿ ਮਨੁੱਖੀ ਵਰਤਾਅ ਦੀ ਯਥਾਰਥ ਪ੍ਰਦਰਸ਼ਨ ਕੋਈ ਅਸਲੀ ਵਿਅਕਤੀ ਨਹੀਂ।
ਜੇ ਅਸੀਂ ਕਦੇ AGI ਬਣਾਈਏ ਤਾਂ ਅਸੀਂ ਕਿਸ ਤਰ੍ਹਾਂ ਪਛਾਣ ਕਰਾਂਗੇ ਕਿ ਇਹ ਸੱਚਮੁੱਚ AGI ਹੈ ਅਤੇ ਸਿਰਫ਼ ਬੇਹਤਰੀਨ ਚੈਟਬੋਟ ਨਹੀਂ?
Turing-ਸ਼ੈਲੀ ਟੈਸਟਸ. ਪਰੰਪਰਗਤ ਅਤੇ ਆਧੁਨਿਕ Turing ਟੈਸਟ ਪੁੱਛਦੇ ਹਨ: ਕੀ ਸਿਸਟਮ ਮਨੁੱਖ-ਵਾਂਗ ਗੱਲਬਾਤ ਕਰ ਸਕਦਾ ਹੈ ਤਾਂ ਜੋ ਲੋਕਾਂ ਨੂੰ ਧੋਖੇ 'ਚ ਰੱਖੇ? LLMs ਪਹਿਲਾਂ ਹੀ ਇਹ ਕੱਝ-ਕੱਛ ਕਰ ਰਹੇ ਹਨ, ਜੋ ਦਿਖਾਉਂਦਾ ਹੈ ਕਿ ਇਹ ਬਾਰ ਕਿੰਨੀ ਨਿਬੜੀ ਹੈ। ਚੈਟ ਕੌਸ਼ਲ ਸਿਰਫ਼ ਅੰਦਾਜ਼ ਨੂੰ ਮਾਪਦਾ ਹੈ, ਗਹਿਰਾਈ, ਯੋਜਨਾ ਬਣਾਉਣ ਜਾਂ ਅਸਲ-ਦੁਨੀਆ ਸਮਰਥਾ ਨਹੀਂ।
ARC-ਸ਼ੈਲੀ ਮੂਲਾਂਕਣ. Alignment Research Center (ARC) ਤੋਂ ਪ੍ਰੇਰਿਤ ਟਾਸਕ ਨਵੀਂ ਤਰਕਸ਼ੀਲ ਪਹੇਲੀਆਂ, ਕਈ-ਕਦਮਾਂ ਦੀ ਹਦਾਇਤਾਂ, ਅਤੇ ਟੂਲ ਵਰਤੋਂ 'ਤੇ ਧਿਆਨ ਦੇਂਦੀਆਂ ਹਨ। ਇਹ ਪ੍ਰੀਖਿਆਵੇਂ ਜਾਂਚਦੇ ਹਨ ਕਿ ਸਿਸਟਮ ਅਜਿਹੇ ਮੁੱਦਿਆਂ ਨੂੰ ਜੁਟ ਕੇ ਨਵੀਆਂ ਰੀਤੀਆਂ ਨਾਲ ਸਮਝਦਾ ਹੈ ਕਿ ਨਹੀਂ। LLMs ਕੁਝ ਇਹਨਾਂ ਟਾਸਕਾਂ ਨੂੰ ਕਰ ਸਕਦੇ ਹਨ—ਪਰ ਅਕਸਰ ਬਹੁਤ ਸੁਚੱਜੇ ਪ੍ਰਾਂਪਟ, ਬਾਹਰੀ ਟੂਲ ਅਤੇ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਦੀ ਲੋੜ ਪੈਂਦੀ ਹੈ।
ਏਜੰਸੀ ਟੈਸਟਸ. ਕੁਝ ਕੁਸ਼ ਹਨ ਜੋ ਪੁੱਛਦੇ ਹਨ ਕਿ ਕੀ ਸਿਸਟਮ ਖੁੱਲ੍ਹੇ-ਅੰਤ ਲਕਸ਼ਾਂ ਦੀ ਪਾਲਣਾ ਕਰ ਸਕਦਾ ਹੈ: ਉਨ੍ਹਾਂ ਨੂੰ ਉਪ-ਲਕਸ਼ਾਂ 'ਚ ਵੰਡਣਾ, ਯੋਜਨਾਵਾਂ ਨੂੰ ਬਦਲਣਾ, ਰੁਕਾਵਟਾਂ ਨੂੰ ਸੰਭਾਲਣਾ, ਅਤੇ ਨਤੀਜਿਆਂ ਤੋਂ ਸਿੱਖਣਾ। ਮੌਜੂਦਾ LLM-ਅਧਾਰਿਤ ਏਜੰਟਾਂ ਏਜੰਟਿਕ ਦਿਸ ਸਕਦੇ ਹਨ, ਪਰ ਉਹ ਅਕਸਰ ਨਰਮ ਸਕ੍ਰਿਪਟਾਂ ਅਤੇ ਮਨੁੱਖ-ਡਿਜ਼ਾਈਨ ਕੀਤੀਆਂ ਢਾਂਚਿਆਂ 'ਤੇ ਨਿਰਭਰ ਹਨ।
ਕਿਸੇ ਚੀਜ਼ ਨੂੰ ਅਸਲੀ AGI ਮੰਨਣ ਲਈ ਅਸੀਂ ਘੱਟੋ-ਘੱਟ ਇਹ ਵੇਖਣਾ ਚਾਹੁੰਦੇ ਹਾਂ:
ਸਵੈ-ਚਾਲਕਤਾ. ਇਹ ਆਪਣੇ ਉਪ-ਲਕਸ਼ ਸੈੱਟ ਅਤੇ ਪ੍ਰਗਤੀ ਦੀ ਨਿਗਰਾਨੀ ਕਰੇ ਅਤੇ ਨਿਰਭਰਤਾ ਬਿਨਾਂ ਫੇਲ ਤੋਂ ਠੀਕ ਹੋ ਜਾਏ।
ਖੇਤਰਾਂ 'ਚ ਟ੍ਰਾਂਸਫਰ. ਇੱਕ ਖੇਤਰ ਵਿੱਚ ਸਿੱਖਿਆ ਹੋਈ ਕੁਸ਼ਲਤਾ ਬਿਨਾਂ ਵੱਡੇ ਨਵੇਂ ਡੇਟਾ ਦੇ ਬਹੁਤ ਵੱਖਰੇ ਖੇਤਰਾਂ 'ਚ ਅਸਾਨੀ ਨਾਲ ਲਾਗੂ ਹੋਵੇ।
ਅਸਲੀ ਦੁਨੀਆ ਦੀ ਸਮਰੱਥਾ. ਇਹ ਗੰਦੀ, ਅਨਿਸ਼ਚਿਤ, ਭੌਤਿਕ ਅਤੇ ਸਮਾਜਕ ਵਾਤਾਵਰਨਾਂ ਵਿੱਚ ਯੋਜਨਾ ਬਣਾਏ ਅਤੇ ਕਾਰਵਾਈ ਕਰੇ—ਜਿੱਥੇ ਨਿਯਮ ਅਧੂਰੇ ਹਨ ਅਤੇ ਨਤੀਜੇ ਅਸਲ-ਹੋਨ ਵਾਲੇ ਹਨ।
LLMs, ਭਾਵੇਂ ਏਜੰਟ ਢਾਂਚਿਆਂ ਵਿੱਚ ਲਪੇਟੇ ਗਏ ਹੋਣ, ਆਮ ਤੌਰ 'ਤੇ:
ਇਸ ਲਈ ਕੇਵਲ ਚੈਟ-ਅਧਾਰਤ ਜਾਂਚਾਂ ਜਾਂ ਸੰਕੁਚਿਤ ਬੈਂਚਮਾਰਕਾਂ ਨੂੰ ਪਾਸ ਕਰਨਾ ਕਾਫ਼ੀ ਨਹੀਂ। ਅਸਲ AGI ਦੀ ਪਛਾਣ ਗੱਲ-ਬਾਤ ਦੀ ਗੁਣਵੱਤਾ ਤੋਂ ਅੱਗੇ ਲੰਮੀ-ਅਵਧੀ ਸਵੈ-ਚਾਲਕਤਾ, ਖੇਤਰ-ਵਾਈਡ ਜਨਰਲਾਈਜ਼ੇਸ਼ਨ ਅਤੇ ਦੁਨੀਆ ਵਿੱਚ ਭਰੋਸੇਯੋਗ ਕਾਰਵਾਈ ਨੂੰ ਦੇਖ ਕੇ ਹੋਵੇਗੀ—ਉਹ ਖੇਤਰ ਜਿੱਥੇ ਮੌਜੂਦਾ LLMs ਅਜੇ ਵੀ ਬਹੁਤ ਤੇਜ਼-ਨਾਜ਼ੁਕ ਨਤੀਜੇ ਲਈ ਵੱਡੀ ਸਹਾਇਤਾ ਚਾਹੁੰਦੇ ਹਨ।
ਜੇ ਅਸੀਂ AGI ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਲੈਂਦੇ ਹਾਂ, ਤਾਂ "ਇੱਕ ਵੱਡਾ ਟੈਕਸਟ ਮਾਡਲ" ਸਿਰਫ਼ ਇਕ ਤੱਤ ਹੈ, ਪੂਰਾ ਪ੍ਰਣਾਲੀ ਨਹੀਂ। ਅਕਸਰ ਖੋਜ ਜੋ "AGI ਵੱਲ" ਲੱਗਦੀ ਹੈ, ਉਹ LLMs ਨੂੰ ਹੋਰ ਧਰੋ-ਧਰਮਕ ਆਰਕੀਟੈਕਚਰਾਂ ਵਿੱਚ ਲਪੇਟਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਹੁੰਦੀ ਹੈ।
ਇਕ ਮੁੱਖ ਦਿਸ਼ਾ LLM-ਅਧਾਰਿਤ ਏਜੰਟ ਹਨ: ਸਿਸਟਮ ਜੋ LLM ਨੂੰ reasoning ਅਤੇ ਯੋਜਨਾ-ਗਠਨ ਕੋਰ ਵਜੋਂ ਵਰਤਦੇ ਹਨ, ਪਰ ਇਸਦੇ ਆਲੇ-ਦੁਆਲੇ:
ਇੱਥੇ LLM "ਸਾਰਥਕ ਬੁੱਧੀ" ਹੋਣਾ ਬੰਦ ਹੁੰਦਾ ਹੈ ਅਤੇ ਇਹ ਇਕ ਵੱਡੇ ਫੈਸਲੇ-ਬਣਾਉਣ ਮਸ਼ੀਨ ਦਾ ਭਾਸ਼ਾਈ ਇੰਟਰਫੇਸ ਬਣ ਜਾਂਦਾ ਹੈ।
ਟੂਲ-ਯੂਜ਼ਿੰਗ ਸਿਸਟਮ LLM ਨੂੰ ਖੋਜ਼ ਇੰਜਨ, ਡੇਟਾਬੇਸ, ਕੋਡ ਇੰਟਰਪ੍ਰੇਟਰ ਜਾਂ ਖਾਸ ਏਪੀਆਈ ਕਾਲ ਕਰਨ ਦਿੰਦੇ ਹਨ। ਇਸ ਨਾਲ ਉਹ:
ਇਹ ਦੇਮੈਗ_FIX ਕੁਝ ਖਾਰੀਆਂ ਤਰ੍ਹਾਂ ਖਾਮੀਆਂ ਠੀਕ ਕਰ ਸਕਦਾ ਹੈ, ਪਰ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੁੱਲ ਬੁੱਧੀ ਹੁਣ ਆਰਕੀਸਟੀਟ ਅਤੇ ਟੂਲ ਡਿਜ਼ਾਈਨ ਦੀਆਂ ਘਰਚਾਂ ਤੇ ਨਿਰਭਰ ਹੋ ਜਾਦੀ ਹੈ, ਸਿਰਫ਼ ਮਾਡਲ ਉਤੇ ਨਹੀਂ।
ਦੂਜਾ ਰਾਹ ਹੈ ਮਲਟੀਮੋਡਲ ਮਾਡਲ ਜੋ ਟੈਕਸਟ, ਚਿੱਤਰ, ਆਡੀਓ, ਵੀਡੀਓ ਅਤੇ ਕੁਝ సਫਟ-ਸੈਂਸਰ ਡੇਟਾ ਨੂੰ ਇਕੱਠਾ ਕਰਦੇ ਹਨ। ਇਹ ਮਨੁੱਖੀ ਤਰੀਕੇ ਨਾਲ ਨਜ਼ਦੀਕੀ ਬਣਨ ਦੇ ਬਹੁਤ ਕਰੀਬ ਹਨ।
ਇੱਕ ਕਦਮ ਅੱਗੇ ਜੇ ਤੁਸੀਂ LLMs ਨੂੰ ਰੋਬੋਟ ਜਾਂ ਸਮੂਹਕ ਸਰੀਰਾਂ 'ਤੇ ਕੰਟਰੋਲ ਕਰਨ ਦੇਵੋਂ ਤਾਂ ਉਹ ਖੋਜ, ਕਾਰਵਾਈ ਅਤੇ ਭੌਤਿਕ ਫੀਡਬੈਕ ਤੋਂ ਸਿੱਖ ਸਕਦੇ ਹਨ, ਜੋ ਕਾਰਨਾਤਮਕ ਅਤੇ ਗ੍ਰਾਊਂਡਡ ਸਮਝ ਦੇ ਕੁਝ ਗੁਆਚੇ ਹਿੱਸੇ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕਦਾ ਹੈ।
ਇਨ੍ਹਾਂ ਰਾਹਾਂ ਨਾਲ ਅਸੀਂ ਸ਼ਾਇਦ AGI-ਵਾਂਗੀਆਂ ਯੋਗਤਾਵਾਂ ਦੇ ਨਜ਼ਦੀਕ ਜਾ ਸਕਦੇ ਹਾਂ, ਪਰ ਉਹ ਖੋਜ ਲਕਸ਼ ਨੂੰ ਬਦਲ ਦਿੰਦੇ ਹਨ। ਹੁਣ ਸਵਾਲ ਇਹ ਨਹੀਂ ਰਹਿੰਦਾ ਕਿ "ਕੀ ਇੱਕ LLM अकेला AGI ਬਣ ਸਕਦਾ ਹੈ?" বরং ਹੁਣ ਪ੍ਰਸ਼ਨ ਹੈ, "ਕੀ ਇੱਕ জটিল ਪ੍ਰਣਾਲੀ ਜਿਸ ਵਿੱਚ LLM, ਟੂਲ, ਮੇਮੋਰੀ, ਪ੍ਰੈਸੈਪਸ਼ਨ ਅਤੇ ਇੰਬਾਡੀਮੈਂਟ ਸ਼ਾਮਿਲ ਹਨ, AGI-ਜਿਹੇ ਵਿਹਾਰ ਦੀ ਨਕਲ ਕਰ ਸਕਦੀ ਹੈ?"
ਇਹ ਫਰਕ ਮਹੱਤਵਪੂਰਨ ਹੈ: LLM ਇਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਟੈਕਸਟ ਪ੍ਰਡਿਕਟਰ ਹੈ; AGI—ਜੇ ਸੰਭਵ ਹੈ—ਇੱਕ ਪੂਰੇ ਇੰਟეგਰੇਟਡ ਸਿਸਟਮ ਹੋਵੇਗਾ, ਜਿਸ ਵਿੱਚ ਭਾਸ਼ਾ ਸਿਰਫ਼ ਇਕ ਹਿੱਸਾ ਹੋਵੇਗਾ।
ਮੌਜੂਦਾ LLMs ਨੂੰ “AGI” ਕਹਿਣਾ ਸਿਰਫ਼ ਸ਼ਬਦਾਂ ਦੀ ਗਲਤੀ ਨਹੀਂ; ਇਹ ਉਤਸ਼ਾਹ, ਸੁਰੱਖਿਆ-ਅੰਧਕਾਰਤਾ, ਅਤੇ ਉਹਨਾਂ ਲੋਕਾਂ ਨੂੰ ਭੁੱਲ ਵਿੱਚ ਪਾਉਂਦਾ ਹੈ ਜੋ AI ਬਾਰੇ ਫੈਸਲੇ ਲੈਂਦੇ ਹਨ।
ਜਦੋਂ ਡੈਮੋਜ਼ ਨੂੰ “ਸ਼ੁਰੂਆਤੀ AGI” ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਤਾਂ ਉਮੀਦਾਂ ਵਰਤਾਰਾ ਤੋਂ ਬਹੁਤ ਅੱਗੇ ਚਲਦੀਆਂ ਹਨ। ਇਸ ਹਾਇਪ ਦੇ ਖੇਤਰ ਵਿੱਚ ਕੁਝ ਖ਼ਰਚੇ ਹੋਦੇ ਹਨ:
ਜੇ ਯੂਜ਼ਰ ਸੋਚਦੇ ਹਨ ਕਿ ਉਹ ਕਿਸੇ "ਜਨਰਲ" ਜਾਂ "ਲਗਭਗ ਮਨੁੱਖੀ" ਚੀਜ ਨਾਲ ਗੱਲ ਕਰ ਰਹੇ ਹਨ, ਤਾਂ ਉਹ:
ਅਧਿਕ ਭਰੋਸਾ ਆਮ ਬੱਗਾਂ ਅਤੇ ਗਲਤੀਆਂ ਨੂੰ ਕਾਫ਼ੀ ਖ਼ਤਰਨਾਕ ਬਣਾਉਂਦਾ ਹੈ।
ਨਿਯంత్రਕ ਅਤੇ ਜਨਤਕ ਪਹਿਲਾਂ ਹੀ ਏਆਈ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਟਰੈਕ ਕਰਨਾ ਮੁਸ਼ਕਲ ਪਾਉਂਦੇ ਹਨ। ਜਦੋਂ ਹਰ ਮਜ਼ਬੂਤ autocomplete ਨੂੰ AGI ਵਜੋਂ ਮਾਰਕੀਟ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਕਈ ਸਮੱਸਿਆਵਾਂ ਆਉਂਦੀਆਂ ਹਨ:
ਸਪਸ਼ਟ ਸ਼ਬਦ—LLM, ਤੰਗ ਮਾਡਲ, AGI ਖੋਜ ਦਿਸ਼ਾ—ਉਮੀਦਾਂ ਨੂੰ ਹਕੀਕਤ ਨਾਲ ਮੇਲ ਖਾਂਉਂਦੀਆਂ ਹਨ। ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਸੀਮਾਵਾਂ ਬਾਰੇ ਨਿੱਜੀ ਭਾਸ਼ਾ:
LLMs ਬਹੁਤ ਸ਼ਕਤੀਸ਼ਾਲੀ ਪੈਟਰਨ ਮਸ਼ੀਨਾਂ ਹਨ: ਉਹ ਬਹੁਤ ਸਾਰਾ ਟੈਕਸਟ ਇੱਕ ਸੰਖੇਪ ਮਾਡਲ ਵਿੱਚ ਸਮੇਟ ਕੇ ਸੰਭਾਵਨਾ-ਅਧਾਰਤ ਜਾਰੀ ਰੱਖਣਗੇ। ਇਹਨਾਂ ਦੀ ਵਰਤੋਂ ਲਿਖਣ, ਕੋਡਿੰਗ ਸਹਾਇਤਾ, ਡੇਟਾ ਖੋਜ ਅਤੇ ਆਈਡੀਆ ਪ੍ਰੋਟੋਟਾਈਪਿੰਗ ਵਿੱਚ ਬਹੁਤ ਲਾਭਦਾਇਕ ਹੈ। ਪਰ ਇਹ ਆਰਕੀਟੈਕਚਰ ਅਜੇ ਵੀ ਤੰਗ ਹੈ। ਇਹ ਇੱਕ ਸਥਾਈ ਸਵੈ, ਗ੍ਰਾਊਂਡਡ ਸਮਝ, ਲੰਬੀ ਅਵਧੀ ਦੇ ਲਕਸ਼, ਜਾਂ ਖੇਤਰ-ਚੌੜਾ ਲਰਨਿੰਗ ਨਹੀਂ ਦਿੰਦਾ, ਜੋ AGI ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦੀਆਂ ਹਨ।
LLMs:
ਇਹ ਢਾਂਚੇ ਦੀਆਂ ਸੀਮਾਵਾਂ ਹਨ ਜੋ ਦੱਸਦੀਆਂ ਹਨ ਕਿ ਸਿਰਫ਼ ਟੈਕਸਟ ਮਾਡਲਾਂ ਨੂੰ ਵਧਾਉਣਾ ਆਮ ਤੌਰ 'ਤੇ ਸੱਚਾ AGI ਨਹੀਂ ਦੇਵੇਗਾ। ਤੁਸੀਂ ਬਿਹਤਰ ਭਾਸ਼ਾਈ ਪ੍ਰਵਾਹ, ਵਧੀਕ ਗਿਆਨ ਯਾਦ ਅਤੇ ਤਰਕ ਦੀ convincing ਨਕਲ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ—ਪਰ ਨਾ ਕੋਈ ਸਿਸਟਮ ਜੋ ਵਾਕਈ ਜਾਣਦਾ, ਚਾਹੁੰਦਾ, ਜਾਂ ਪਰਵਾਹ ਕਰਦਾ ਹੋਵੇ।
LLMs ਦੀ ਵਰਤੋਂ ਉਹ ਜਗ੍ਹਾ ਕਰੋ ਜਿੱਥੇ pattern prediction ਚਮਕਦਾ ਹੈ:
ਇਸਨੂੰ ਹਮੇਸ਼ਾ ਮਨੁੱਖ ਨੂੰ ਲੂਪ ਵਿੱਚ ਰੱਖੋ ਜਿੱਥੇ:
ਆਉਟਪੁੱਟ ਨੂੰ ਚੈਕ ਕਰਨ ਯੋਗ ਪਰਪੋਜ਼ਲ ਸਮਝੋ—ਇਹ ਸੱਚ ਸਮਝੋ ਨਾ।
LLMs ਨੂੰ "AGI" ਕਹਿਣਾ ਉਨ੍ਹਾਂ ਦੀਆਂ ਹਕੀਕਤੀ ਸੀਮਾਵਾਂ ਨੂੰ ਛੁਪਾਉਂਦਾ ਹੈ ਅਤੇ ਵਧੇਰੇ ਨਿਰਭਰਤਾ, ਨਿਯਮਤਾਕਾਰੀ ਗਲਤਫ਼ਹਮੀਆਂ ਅਤੇ ਬੇਫੁਰਮਾਨ ਡਰ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਅਤੇ ਵਿਆਵਹਾਰਿਕ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਨੂੰ ਤਕਨੀਕੀ ਸਹਾਇਕਾਂ ਦੇ ਤੌਰ 'ਤੇ ਦੇਖਿਆ ਜਾਵੇ ਜੋ ਮਨੁੱਖੀ ਵਰਕਫਲੋ ਵਿੱਚ ਲੱਗੇ ਹੋਏ ਹਨ।
ਜੇ ਤੁਸੀਂ ਪ੍ਰੈਟਿਕਲ ਉਪਯੋਗ ਅਤੇ ਟਰੇਡ-ਆਫਸ ਵਿੱਚ ਹੋਰ ਡੀਪ ਜਾਣਾ ਚਾਹੁੰਦੇ ਹੋ, ਤਾਂ ਸਾਡੇ ਬਲੌਗ (our /blog) ਤੇ ਹੋਰ ਲੇਖ ਵੇਖੋ। LLM-ਚਲਿਤ ਟੂਲਾਂ ਦੀ ਪੈਕਿੰਗ ਅਤੇ ਕੀਮਤ ਦੀ ਵਿਵਰਣਾ ਲਈ ਸਾਡੇ /pricing ਵੇਖੋ।
AGI (Artificial General Intelligence) ਇੱਕ ਐਸਾ ਸਿਸਟਮ ਹੈ ਜੋ ਕਿ:
ਇੱਕ ਆਮ ਨਿਯਮ: AGI ਪ੍ਰਿੰਸੀਪਲੀ ਉਸ ਸਮਰੱਥਾ ਰੱਖਦਾ ਹੈ ਕਿ ਉਹ ਲੰਮੀ ਮਿਆਦ ਵਾਲੇ ਜਾਂ ਬੌਧਿਕ ਤੌਰ 'ਤੇ ਮੰਗ ਵਾਲੇ ਕੰਮਾਂ ਨੂੰ ਇਨਸਾਨ ਵਾਂਗ ਸਿੱਖ ਸਕੇ ਅਤੇ ਕਰ ਸਕੇ, ਬਿਨਾਂ ਹਰ ਨਵੇਂ ਕੰਮ ਲਈ ਵਿਸ਼ੇਸ਼ ਆਰਕੀਟੈਕਚਰ ਦੀ ਲੋੜ ਦੇ।
ਆਧੁਨਿਕ LLMs:
ਉਹ ਬਹੁਤ ਖਪਤ-ਪੂਰਕ ਗਿਆਨ ਅਤੇ ਤਰਕ ਦਾ ਨਕਲ ਕਰ ਸਕਦੇ ਹਨ ਕਿਉਂਕਿ ਭਾਸ਼ਾ ਬਹੁਤ ਸਾਰਾ ਮਨੁਖੀ ਤਜਰਬਾ ਦਰਜ ਕਰਦੀ ਹੈ। ਪਰ ਉਹ:
ਲੋਕ ਅਕਸਰ fluent ਭਾਸ਼ਾ ਨੂੰ ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਨਾਲ ਗੁੰਝਲਦੇ ਹਨ ਕਿਉਂਕਿ:
ਇਸ ਨਾਲ ਸਮਝਣ ਅਤੇ ਏਜੰਸੀ ਦੀ ਭ੍ਰਮ ਪੈਦਾ ਹੁੰਦੀ ਹੈ। ਅਸਲ ਵਿੱਚ ਸਿਸਟਮ "ਸਿਰਫ਼" ਦਾਟਾ ਦੇ ਪੈਟਰਨਾਂ ਦੇ ਆਧਾਰ 'ਤੇ ਟੈਕਸਟ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰ ਰਿਹਾ ਹੈ, ਨਾ ਕਿ ਕੋਈ ਗ੍ਰਾਊਂਡ ਕੀਤਾ ਹੋਇਆ ਦੁਨੀਆ ਮਾਡਲ ਬਣਾਉਂਦਾ।
ਤੁਸੀਂ LLM ਨੂੰ ਇਕ ਵੱਡੇ ਫੰਕਸ਼ਨ ਵਾਂਗ ਸੋਚ ਸਕਦੇ ਹੋ ਜੋ:
ਮੁੱਖ ਨੁਕਤੇ:
LLMs ਉਹਨਾਂ ਟਾਸਕਾਂ ਵਿੱਚ ਸ਼ਾਨਦਾਰ ਹੁੰਦੇ ਹਨ ਜਿਹੜੇ ਮੁੱਖ ਰੂਪ ਵਿੱਚ ਟੈਕਸਟ ਜਾਂ ਕੋਡ 'ਤੇ ਪੈਟਰਨ ਭਵਿੱਖਬਾਣੀ ਮੰਗਦੇ ਹਨ, ਉਦਾਹਰਨ ਲਈ:
ਉਹਨਾਂ ਨੂੰ ਮੁਸ਼ਕਲੀਆਂ ਜਾਂ ਖਤਰਨਾਕ ਸਥਿਤੀਆਂ ਵਿੱਚ ਜੋ ਚੁਣੌਤੀ ਹੁੰਦੀ ਹੈ:
“Scaling laws” ਦਿਖਾਉਂਦੇ ਹਨ ਕਿ ਜਦੋਂ ਤੁਸੀਂ ਮਾਡਲ, ਡੇਟਾ ਅਤੇ ਕੰਪਿਊਟ ਵਧਾਉਂਦੇ ਹੋ ਤਾਂ ਬਹੁਤ ਸਾਰੀਆਂ ਪ੍ਰਦਰਸ਼ਨ-ਮਾਪਦੰਡਾਂ 'ਤੇ ਸੁਧਾਰ ਹੁੰਦਾ ਹੈ। ਪਰ ਕੇਵਲ ਸਕੇਲਿੰਗ ਕੁਝ ਢਾਂਚাগত ਖਾਮੀਆਂ ਨੂੰ ਠੀਕ ਨਹੀਂ ਕਰਦੀ:
ਵੱਡਾ ਮਾਡਲ:
LLMs ਨੂੰ ਟੂਲ ਵਜੋਂ ਵਰਤੋਂ ਜਿੱਥੇ pattern prediction ਚਮਕਦਾ ਹੈ:
ਮੇਨਤਵਾਂ ਰੂਪ ਵਿੱਚ ਮਨੁੱਖ ਨੂੰ ਹਮੇਸ਼ਾ ਸ਼ਾਮਲ ਰੱਖੋ ਜਿੱਥੇ:
LLMs ਨੂੰ “AGI” ਕਹਿੰਦੇ ਹੋਏ ਕਈ ਸਮੱਸਿਆਵਾਂ ਹੁੰਦੀਆਂ ਹਨ:
ਸਪਸ਼ਟ ਅਤੇ ਨਿਸ਼ਚਿਤ ਭਾਸ਼ਾ (LLM, narrow model, agentic system using LLMs) ਉਮੀਦਾਂ ਨੂੰ ਹਕੀਕਤ ਨਾਲ ਮਿਲਾਉਂਦੀ ਹੈ ਅਤੇ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣ, ਨਿਯਮਤਾਕਾਰੀ ਅਤੇ ਲੋਕੀ ਸਮਝ ਨੂੰ ਸੰਵਰਦੀ ਹੈ।
ਅਗਰ ਅਸੀਂ ਸੱਚਮੁੱਚ AGI ਬਣਾਉਂਦੇ ਹਾਂ, ਤਾਂ ਉਸਨੂੰ ਕਿਵੇਂ ਪਹਿਚਾਣਿਆ ਜਾਵੇਗਾ ਇਹ ਅਹਿਮ ਸਵਾਲ ਹੈ। ਕੇਵਲ ਚੈਟ-ਕੁਸ਼ਲਤਾ ਨਹੀਂ ਕਾਫ਼ੀ।
ਇਕ ਵਿਆਪਕ ਸੈੱਟ ਢੁਕਵਾਂ ਮਾਪਦੰਡ ਹੋ ਸਕਦੇ ਹਨ:
ਜੇ ਅਸੀਂ AGI ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਲੈਣਾਂ ਤਾਂ “ਇੱਕ ਵੱਡਾ ਟੈਕਸਟ ਮਾਡਲ” ਸਿਰਫ਼ ਇਕ ਹਿੱਸਾ ਹੈ। ਬਹੁਤ ਅਕਸਰ ਉਹ ਰਾਹ ਜੋ ਲੋਕ "AGI ਵੱਲ" ਕਹਿੰਦੇ ਹਨ, ਦਰਅਸਲ LLMs ਨੂੰ ਹੋਰ ਅਮੀਰ ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਲਪੇਟਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਹੈ।
ਕੁਝ ਰਸਤੇ ਜੋ ਖੋਜਕਾਰਾਂ ਅਜਿਹਾ ਕਰ ਰਹੇ ਹਨ:
ਇਹ ਰਾਹ AGI-ਵਾਂਗੀਆਂ ਯੋਗਤਾਵਾਂ ਕੋਲ ਲਿਜਾ ਸਕਦੇ ਹਨ, ਪਰ ਉਹ ਸਵਾਲ ਨੂੰ ਬਦਲ ਦਿੰਦੇ ਹਨ: ਹੁਣ ਪ੍ਰਸ਼ਨ ਇਹ ਹੈ ਕਿ "ਕੀ LLM ਸਮੇਤ ਜ਼ਿਆਦਾ ਗਠਿਤ ਸਿਸਟਮ AGI ਵਰਤੋਂ-ਯੋਗ ਵਿਵਹਾਰ ਦੀ ਨਕਲ ਕਰ ਸਕਦੇ ਹਨ?"
ਇਸ ਲਈ LLMs ਭਾਸ਼ਾ 'ਤੇ ਨਿਰਭਰ ਤੌਰ 'ਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਪਰ ਪੱਕੇ ਤੌਰ 'ਤੇ ਅਲੱਗ-ਥੱਲਾ ਪੈਟਰਨ-ਲਰਨਰ ਹਨ, ਨਾ ਕਿ ਖੁਦਮੁਖਤਿਆਰ AGI ਏਜੰਟ।
ਜੋ ਕੁੱਝ ਵੀ ਤਰਕ ਜਾਂ ਯਾਦ-ਸੂਝ ਵਰਗਾ ਲੱਗਦਾ ਹੈ, ਉਹ ਅਗਲੇ-ਟੋਕਨ ਲਕਸ਼ ਦਾ ਨਤੀਜਾ ਹੈ, ਨਾਂ ਕਿ ਕਿਸੇ ਪ੍ਰਤੀਕਾਤਮਿਕ ਤਰਕ ਜਾਂ ਸਥਾਈ ਬੇਲੀਫ ਸਟੋਰ ਦਾ।
ਇਨ੍ਹਾਂ ਹਾਲਾਤਾਂ ਵਿੱਚ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਅਤੇ ਬਾਹਰੀ ਸੰਦਾਂ (search, calculators, simulators) ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
ਪਰ ਇਹ ਖੁਦ-ਚਲਿਤ, ਜਨਰਲ ਇੰਟੈਲਿਜੈਂਸ ਸਵੈ-ਰੂਪ ਵਿੱਚ ਨਹੀਂ ਬਣਦਾ। ਨਵੇਂ ਆਰਕੀਟੈਕਚਰ ਅਤੇ ਸਿਸਟਮ-ਪੱਧਰ ਦੇ ਡਿਜ਼ਾਈਨ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।
ਆਉਟਪੁੱਟ ਨੂੰ ਹਮੇਸ਼ਾਂ ਜਾਂਚ ਕਰਨ ਯੋਗ ਪਰਪੋਜ਼ਲ ਮੰਨੋ, ਨਾ ਕਿ ਸੱਚਾਈ।
ਮੌਜੂਦਾ LLMs, ਏਜੰਟ-ਸਟੈਕਿੰਗ ਦੇ ਬਾਵਜੂਦ, ਇਨ੍ਹਾਂ ਮਾਪਦੰਡਾਂ ਵਿੱਚ ਭਾਰੀ ਮਨੁੱਖੀ ਸਕ੍ਰਿਪਟਿੰਗ ਅਤੇ ਟੂਲ-ਕੋਆਰਡੀਨੇਸ਼ਨ 'ਤੇ ਨਿਰਭਰ ਹਨ ਅਤੇ ਹਜੇ ਵੀ ਰੋਬਸਟਨੈੱਸ ਤੇ ਜਨਰੈਲਟੀ ਵਿੱਚ ਘਾਟ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ।