AI ਲਈ ਨਵਾਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਿਆ ਹੈ
ਬਿਨਾਂ ਇਜਾਜ਼ਤ ਇਨੋਵੇਸ਼ਨ ਦਾ ਅੰਤ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਵਿੱਚ ‘ਵਾਈਲਡ ਵੈਸਟ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। ਸਾਲਾਂ ਤੱਕ, ਡਿਵੈਲਪਰਾਂ ਨੇ ਬਹੁਤ ਘੱਟ ਨਿਗਰਾਨੀ ਅਤੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਮਾਡਲ ਬਣਾਏ। ਹੁਣ, ਉਸ ਆਜ਼ਾਦੀ ਨੂੰ ਪਾਲਣਾ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਢਾਂਚੇ ਨਾਲ ਬਦਲਣ ਲਈ ਇੱਕ ਨਵੀਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਉਭਰ ਰਹੀ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸੁਝਾਅ ਨਹੀਂ ਹਨ, ਸਗੋਂ ਇਹ ਭਾਰੀ ਜੁਰਮਾਨਿਆਂ ਅਤੇ ਮਾਰਕੀਟ ਤੋਂ ਬਾਹਰ ਕੀਤੇ ਜਾਣ ਦੇ ਡਰ ਨਾਲ ਸਮਰਥਿਤ ਸਖ਼ਤ ਕਾਨੂੰਨ ਹਨ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਆਪਣੇ ਵਿਆਪਕ AI Act ਨਾਲ ਅਗਵਾਈ ਕਰ ਰਹੀ ਹੈ, ਜਦੋਂ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ ਸਭ ਤੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣ ਵਾਲੇ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ਾਂ ਨਾਲ ਅੱਗੇ ਵਧ ਰਿਹਾ ਹੈ। ਇਹ ਨਿਯਮ ਬਦਲ ਦੇਣਗੇ ਕਿ ਕੋਡ ਕਿਵੇਂ ਲਿਖਿਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਕਿਵੇਂ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਬਦਲ ਦੇਣਗੇ ਕਿ ਇਸ ਮੁਕਾਬਲੇ ਵਾਲੇ ਖੇਤਰ ਵਿੱਚ ਕੌਣ ਟਿਕ ਸਕਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਅਜਿਹਾ ਮਾਡਲ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਮਨੁੱਖੀ ਵਿਵਹਾਰ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਹੁਣ ਨਿਗਰਾਨੀ ਹੇਠ ਹੋ। ਇਹ ਤਬਦੀਲੀ ਉਦਯੋਗ ਦਾ ਧਿਆਨ ਰਫ਼ਤਾਰ ਤੋਂ ਹਟਾ ਕੇ ਸੁਰੱਖਿਆ ਵੱਲ ਲੈ ਜਾਂਦੀ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਲਾਂਚ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਸਿਸਟਮ ਪੱਖਪਾਤੀ ਨਹੀਂ ਹਨ। ਇਹ ਦੁਨੀਆ ਦੀ ਹਰ ਟੈਕ ਫਰਮ ਲਈ ਨਵੀਂ ਹਕੀਕਤ ਹੈ।
ਕੋਡ ਵਿੱਚ ਜੋਖਮ ਦਾ ਵਰਗੀਕਰਨ
ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਮੂਲ ਇੱਕ risk-based ਪਹੁੰਚ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕਾਨੂੰਨ ਇੱਕ ਮਿਊਜ਼ਿਕ ਰਿਕਮੈਂਡੇਸ਼ਨ ਇੰਜਣ ਨਾਲ ਉਸੇ ਤਰ੍ਹਾਂ ਪੇਸ਼ ਨਹੀਂ ਆਉਂਦਾ ਜਿਵੇਂ ਕਿ ਮੈਡੀਕਲ ਡਾਇਗਨੌਸਟਿਕ ਟੂਲ ਜਾਂ ਸੈਲਫ-ਡਰਾਈਵਿੰਗ ਕਾਰ ਨਾਲ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ ਇਸ ਕਿਸਮ ਦੇ ਨਿਯਮ ਲਈ ਇੱਕ ਮਿਆਰ ਸਥਾਪਤ ਕੀਤਾ ਹੈ। ਉਹ AI ਨੂੰ ਸਮਾਜ ਨੂੰ ਹੋਣ ਵਾਲੇ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਦੇ ਆਧਾਰ ‘ਤੇ ਚਾਰ ਵੱਖ-ਵੱਖ ਸ਼੍ਰੇਣੀਆਂ ਵਿੱਚ ਵੰਡਦੇ ਹਨ। ਵਰਜਿਤ ਸਿਸਟਮ ਉਹ ਹਨ ਜੋ ਸਪੱਸ਼ਟ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਂਦੇ ਹਨ ਅਤੇ ਉਨ੍ਹਾਂ ‘ਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪਾਬੰਦੀ ਹੈ। ਇਸ ਵਿੱਚ ਸੋਸ਼ਲ ਸਕੋਰਿੰਗ ਸਿਸਟਮ ਸ਼ਾਮਲ ਹਨ ਜੋ ਨਾਗਰਿਕਾਂ ਨੂੰ ਟਰੈਕ ਕਰਨ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਉੱਚ-ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਉਹ ਹਨ ਜਿਨ੍ਹਾਂ ‘ਤੇ ਰੈਗੂਲੇਟਰਾਂ ਦੀ ਸਭ ਤੋਂ ਵੱਧ ਨਜ਼ਰ ਰਹੇਗੀ। ਇਹ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਸਿੱਖਿਆ ਅਤੇ ਰੁਜ਼ਗਾਰ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਜੇਕਰ ਕੋਈ AI ਇਹ ਫੈਸਲਾ ਕਰਦਾ ਹੈ ਕਿ ਕਿਸ ਨੂੰ ਨੌਕਰੀ ਮਿਲਦੀ ਹੈ ਜਾਂ ਕਿਸ ਨੂੰ ਲੋਨ ਮਿਲਦਾ ਹੈ, ਤਾਂ ਇਹ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਅਤੇ ਉੱਚ ਪੱਧਰੀ ਸ਼ੁੱਧਤਾ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਸੀਮਤ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ ਚੈਟਬੋਟਸ, ਵਿੱਚ ਘੱਟ ਨਿਯਮ ਹਨ ਪਰ ਫਿਰ ਵੀ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਘੱਟੋ-ਘੱਟ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ AI ਦੁਸ਼ਮਣਾਂ ਵਾਲੀਆਂ ਵੀਡੀਓ ਗੇਮਾਂ, ਨੂੰ ਜ਼ਿਆਦਾਤਰ ਇਕੱਲਾ ਛੱਡ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਢਾਂਚਾ ਤਰੱਕੀ ਨੂੰ ਰੋਕੇ ਬਿਨਾਂ ਅਧਿਕਾਰਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੀਆਂ ਪਰਿਭਾਸ਼ਾਵਾਂ ਅਜੇ ਵੀ ਅਦਾਲਤਾਂ ਵਿੱਚ ਬਹਿਸ ਦਾ ਵਿਸ਼ਾ ਹਨ।
ਯੂਰਪੀਅਨ ਸੰਸਦ ਨੇ EU AI Act ‘ਤੇ ਆਪਣੀ ਤਾਜ਼ਾ ਬ੍ਰੀਫਿੰਗ ਵਿੱਚ ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦਾ ਵੇਰਵਾ ਦਿੱਤਾ ਹੈ। ਇਹ ਦਸਤਾਵੇਜ਼ ਇਸ ਗੱਲ ਦਾ ਆਧਾਰ ਹੈ ਕਿ ਬਾਕੀ ਦੁਨੀਆ AI ਗਵਰਨੈਂਸ ਬਾਰੇ ਕਿਵੇਂ ਸੋਚ ਰਹੀ ਹੈ।
ਗਲੋਬਲ ਸਟੈਂਡਰਡਾਈਜ਼ੇਸ਼ਨ ਦੀ ਦੌੜ
ਇਹ ਨਿਯਮ ਸਿਰਫ਼ ਯੂਰਪ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਰਹਿ ਰਹੇ। ਅਸੀਂ ਰੀਅਲ ਟਾਈਮ ਵਿੱਚ *Brussels Effect* ਦਾ ਉਭਾਰ ਦੇਖ ਰਹੇ ਹਾਂ। ਜਦੋਂ ਇੱਕ ਵੱਡੀ ਮਾਰਕੀਟ ਨਿਯਮ ਤੈਅ ਕਰਦੀ ਹੈ, ਤਾਂ ਦੂਜਿਆਂ ਨੂੰ ਵੀ ਉਨ੍ਹਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਪੈਂਦੀ ਹੈ। ਇੱਕ ਗਲੋਬਲ ਕੰਪਨੀ ਪੈਰਿਸ ਲਈ ਇੱਕ ਮਾਡਲ ਅਤੇ ਨਿਊਯਾਰਕ ਲਈ ਦੂਜਾ ਮਾਡਲ ਨਹੀਂ ਬਣਾਏਗੀ ਜੇਕਰ ਅਜਿਹਾ ਕਰਨ ਦੀ ਲਾਗਤ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਉਹ ਸਿਰਫ਼ ਸਭ ਤੋਂ ਸਖ਼ਤ ਮਿਆਰਾਂ ਅਨੁਸਾਰ ਹੀ ਬਣਾਉਣਗੇ। ਇਸੇ ਲਈ EU ਢਾਂਚਾ ਇੱਕ ਗਲੋਬਲ ਟੈਂਪਲੇਟ ਬਣ ਰਿਹਾ ਹੈ। ਬ੍ਰਾਜ਼ੀਲ ਅਤੇ ਕੈਨੇਡਾ ਪਹਿਲਾਂ ਹੀ ਅਜਿਹੇ ਕਾਨੂੰਨਾਂ ‘ਤੇ ਕੰਮ ਕਰ ਰਹੇ ਹਨ ਜੋ ਯੂਰਪੀਅਨ ਪਹੁੰਚ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ, ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਲਈ ਹਲਕੀ ਪਹੁੰਚ ਪਸੰਦ ਕਰਦਾ ਹੈ, ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਵੱਲ ਵਧ ਰਿਹਾ ਹੈ। ਵ੍ਹਾਈਟ ਹਾਊਸ ਨੇ ਇੱਕ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜਾਰੀ ਕੀਤਾ ਹੈ ਜਿਸ ਵਿੱਚ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਦੇ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਸਰਕਾਰ ਨਾਲ ਆਪਣੇ ਸੁਰੱਖਿਆ ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਹ ਇੱਕ ਖੰਡਿਤ ਪਰ ਇੱਕਜੁੱਟ ਹੁੰਦੀ ਰੈਗੂਲੇਸ਼ਨ ਦੀ ਦੁਨੀਆ ਬਣਾਉਂਦਾ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਨਵੇਂ ਨਿਯਮਾਂ ਨੂੰ ਪੜ੍ਹਨ ਲਈ ਵਕੀਲਾਂ ਦੀਆਂ ਟੀਮਾਂ ਰੱਖਣੀਆਂ ਪੈਣਗੀਆਂ। ਉੱਭਰਦੀਆਂ ਮਾਰਕੀਟਾਂ ਵਿੱਚ ਛੋਟੇ ਸਟਾਰਟਅੱਪਾਂ ਲਈ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ। ਇਹ ਇੱਕ ਉੱਚ-ਦਾਅ ਵਾਲੀ ਖੇਡ ਹੈ ਜਿੱਥੇ ਨਿਯਮ ਉਦੋਂ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ ਜਦੋਂ ਕਾਰਾਂ ਪਹਿਲਾਂ ਹੀ ਪੂਰੀ ਰਫ਼ਤਾਰ ਨਾਲ ਚੱਲ ਰਹੀਆਂ ਹਨ। AI ਸੁਰੱਖਿਆ ‘ਤੇ US Executive Order ਇੱਕ ਸਪੱਸ਼ਟ ਸੰਕੇਤ ਹੈ ਕਿ ਸਵੈ-ਨਿਯਮ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਇੱਕ ਪਾਲਣਾ ਕਰਨ ਵਾਲੇ ਦਫਤਰ ਵਿੱਚ ਇੱਕ ਦਿਨ
ਕਲਪਨਾ ਕਰੋ ਕਿ ਐਲੇਕਸ ਨਾਮ ਦਾ ਇੱਕ ਪ੍ਰੋਡਕਟ ਮੈਨੇਜਰ ਹੈ। ਐਲੇਕਸ ਇੱਕ ਸਟਾਰਟਅੱਪ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ ਜੋ HR ਲਈ AI ਟੂਲ ਬਣਾਉਂਦਾ ਹੈ। ਨਵੇਂ ਨਿਯਮਾਂ ਤੋਂ ਪਹਿਲਾਂ, ਐਲੇਕਸ ਹਰ ਸ਼ੁੱਕਰਵਾਰ ਦੁਪਹਿਰ ਨੂੰ ਇੱਕ ਅਪਡੇਟ ਜਾਰੀ ਕਰਦਾ ਸੀ। ਹੁਣ, ਪ੍ਰਕਿਰਿਆ ਬਹੁਤ ਹੌਲੀ ਅਤੇ ਸੋਚੀ-ਸਮਝੀ ਹੈ। ਹਰ ਨਵੀਂ ਵਿਸ਼ੇਸ਼ਤਾ ਨੂੰ ਕੋਡ ਦੀ ਇੱਕ ਲਾਈਨ ਤੈਨਾਤ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇੱਕ ਸਖ਼ਤ ਜੋਖਮ ਮੁਲਾਂਕਣ ਵਿੱਚੋਂ ਲੰਘਣਾ ਪੈਂਦਾ ਹੈ। ਐਲੇਕਸ ਨੂੰ ਸਿਖਲਾਈ ਡੇਟਾ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਅਤੇ ਇਹ ਦਿਖਾਉਣਾ ਹੁੰਦਾ ਹੈ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਸਮੂਹਾਂ ਦੇ ਵਿਰੁੱਧ ਵਿਤਕਰਾ ਨਹੀਂ ਕਰਦਾ ਹੈ। ਉਸਨੂੰ ਵਿਸਤ੍ਰਿਤ ਲੌਗ ਰੱਖਣੇ ਪੈਂਦੇ ਹਨ ਕਿ ਮਾਡਲ ਫੈਸਲੇ ਕਿਵੇਂ ਲੈਂਦਾ ਹੈ। ਇਹ ਵਿਕਾਸ ਚੱਕਰ ਵਿੱਚ ਹਫ਼ਤੇ ਜੋੜਦਾ ਹੈ। ਇੱਕ ਆਮ ਮੰਗਲਵਾਰ ਨੂੰ, ਐਲੇਕਸ ਕੋਡਿੰਗ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹੁੰਦਾ। ਉਹ ਮਾਡਲ ਕਾਰਡਾਂ ਦੀ ਸਮੀਖਿਆ ਕਰਨ ਲਈ ਇੱਕ ਪਾਲਣਾ ਅਧਿਕਾਰੀ (compliance officer) ਨਾਲ ਮੀਟਿੰਗ ਕਰ ਰਿਹਾ ਹੁੰਦਾ ਹੈ। ਉਹ ਜਾਂਚ ਕਰ ਰਹੇ ਹਨ ਕਿ ਕੀ API ਲੌਗ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਡੇਟਾ ਰਿਟੈਨਸ਼ਨ ਦੇ ਨਵੇਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦੇ ਹਨ। ਇਹ ਉਹ ਰਗੜ ਹੈ ਜੋ ਸੁਰੱਖਿਆ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਉਪਭੋਗਤਾ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦਾ ਹੌਲੀ ਰੋਲਆਊਟ ਹੋ ਸਕਦਾ ਹੈ। ਪਰ ਇਸਦਾ ਮਤਲਬ ਇਹ ਵੀ ਹੈ ਕਿ ਇੱਕ ਬਲੈਕ ਬਾਕਸ ਐਲਗੋਰਿਦਮ ਦੁਆਰਾ ਨੌਕਰੀ ਲਈ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਅਸਵੀਕਾਰ ਕੀਤੇ ਜਾਣ ਦੀ ਸੰਭਾਵਨਾ ਘੱਟ ਹੈ। ਲੋਕ ਅਕਸਰ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾਉਂਦੇ ਹਨ ਕਿ ਇਹ ਨਿਯਮ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਕਿੰਨਾ ਰੋਕਣਗੇ। ਅਸਲ ਵਿੱਚ, ਇਹ ਸਿਰਫ਼ ਆਪਣੀ ਸ਼ਕਲ ਬਦਲੇਗਾ। ਲੋਕ ਇਨ੍ਹਾਂ ਕਾਨੂੰਨਾਂ ਦੀ ਗੁੰਝਲਤਾ ਨੂੰ ਵੀ ਘੱਟ ਸਮਝਦੇ ਹਨ। ਇਹ ਸਿਰਫ਼ ਪੱਖਪਾਤ ਤੋਂ ਬਚਣ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਡੇਟਾ ਪ੍ਰਭੂਸੱਤਾ ਅਤੇ ਊਰਜਾ ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਹੈ। ਵਿਰੋਧਾਭਾਸ ਹਰ ਜਗ੍ਹਾ ਹਨ। ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ AI ਤੇਜ਼ ਅਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਹੋਵੇ, ਪਰ ਅਸੀਂ ਇਹ ਵੀ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਇਹ ਹੌਲੀ ਅਤੇ ਸਾਵਧਾਨ ਹੋਵੇ। ਐਲੇਕਸ ਨੂੰ ਹਰ ਹਫ਼ਤੇ ਕਈ ਖਾਸ ਕੰਮ ਕਰਨੇ ਪੈਂਦੇ ਹਨ:
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਦੀ ਸਮੀਖਿਆ ਕਰਨਾ ਕਿ ਸਾਰੇ ਸਿਖਲਾਈ ਸੈੱਟ ਕਾਨੂੰਨੀ ਤੌਰ ‘ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਹਨ।
- ਹਰ ਨਵੇਂ ਮਾਡਲ ਇਟਰੇਸ਼ਨ ‘ਤੇ ਪੱਖਪਾਤ ਖੋਜ ਸਕ੍ਰਿਪਟਾਂ ਚਲਾਉਣਾ।
- ਵੱਡੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਗਏ ਕੰਪਿਊਟ ਸਰੋਤਾਂ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ।
- ਲਾਜ਼ਮੀ AI ਖੁਲਾਸੇ ਸ਼ਾਮਲ ਕਰਨ ਲਈ ਯੂਜ਼ਰ ਇੰਟਰਫੇਸ ਨੂੰ ਅਪਡੇਟ ਕਰਨਾ।
- ਕੰਪਨੀ ਦੇ ਸੁਰੱਖਿਆ ਪ੍ਰੋਟੋਕੋਲ ਦੇ ਤੀਜੀ-ਧਿਰ ਆਡਿਟ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨਾ।
ਦਿਨ ਦੇ ਅੰਤ ਤੱਕ, ਐਲੇਕਸ ਇਨ੍ਹਾਂ ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਭਾਰ ਮਹਿਸੂਸ ਕਰਦਾ ਹੈ। ਉਹ ਜਾਣਦਾ ਹੈ ਕਿ ਉਹ ਨਿਰਪੱਖਤਾ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਪਰ ਉਹ ਇਹ ਵੀ ਜਾਣਦਾ ਹੈ ਕਿ ਘੱਟ ਨਿਯਮਾਂ ਵਾਲੇ ਦੇਸ਼ਾਂ ਵਿੱਚ ਉਸਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧ ਰਹੇ ਹਨ। ਉਹ ਸੋਚਦਾ ਹੈ ਕਿ ਕੀ ਉਸਦਾ ਸਟਾਰਟਅੱਪ ਨੈਤਿਕ ਹੋਣ ਦੀ ਲਾਗਤ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਹਜ਼ਾਰਾਂ ਡਿਵੈਲਪਰਾਂ ਲਈ ਹਕੀਕਤ ਹੈ। ਹੋਰ ਜਾਣਕਾਰੀ ਲਈ, ਸਾਡਾ ਨਵੀਨਤਮ AI ਨੀਤੀ ਵਿਸ਼ਲੇਸ਼ਣ ਦੇਖੋ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਨਵੇਂ ਰੈਗੂਲੇਟਰਾਂ ਲਈ ਔਖੇ ਸਵਾਲ
ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਤੋਂ ਅਸਲ ਵਿੱਚ ਕਿਸ ਨੂੰ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ? ਕੀ ਇਹ ਜਨਤਾ ਹੈ, ਜਾਂ ਇਹ ਵੱਡੀਆਂ ਟੈਕ ਕੰਪਨੀਆਂ ਹਨ ਜੋ ਕਾਨੂੰਨੀ ਫੀਸਾਂ ਦਾ ਖਰਚਾ ਉਠਾ ਸਕਦੀਆਂ ਹਨ? ਜੇਕਰ ਕਿਸੇ ਸਟਾਰਟਅੱਪ ਨੂੰ ਆਪਣੇ ਸੀਡ ਰਾਉਂਡ ਦਾ ਅੱਧਾ ਹਿੱਸਾ ਪਾਲਣਾ ‘ਤੇ ਖਰਚ ਕਰਨਾ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਕੀ ਇਹ ਮੁਕਾਬਲੇ ਨੂੰ ਖਤਮ ਕਰ ਦਿੰਦਾ ਹੈ? ਸਾਨੂੰ ਗੋਪਨੀਯਤਾ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ ਬਾਰੇ ਵੀ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਹਰ ਮਾਡਲ ਦਾ ਆਡਿਟ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਾਂ ਆਡਿਟ ਕੌਣ ਕਰਦਾ ਹੈ? ਕੀ ਅਸੀਂ ਕਿਸੇ ਸਰਕਾਰੀ ਏਜੰਸੀ ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹਾਂ ਕਿ ਉਸ ਕੋਲ ਹਰ ਵੱਡੇ AI ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਤੱਕ ਪਹੁੰਚ ਹੋਵੇ? ਗਲੋਬਲ ਅਸਮਾਨਤਾ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜੇਕਰ ਪੱਛਮ ਨਿਯਮ ਤੈਅ ਕਰਦਾ ਹੈ, ਤਾਂ ਗਲੋਬਲ ਸਾਊਥ ਦਾ ਕੀ ਹੋਵੇਗਾ? ਕੀ ਉਨ੍ਹਾਂ ਨੂੰ ਅਜਿਹੇ ਮਾਪਦੰਡ ਅਪਣਾਉਣ ਲਈ ਮਜਬੂਰ ਕੀਤਾ ਜਾਵੇਗਾ ਜੋ ਉਨ੍ਹਾਂ ਦੀਆਂ ਸਥਾਨਕ ਲੋੜਾਂ ਦੇ ਅਨੁਕੂਲ ਨਹੀਂ ਹਨ? ਸਾਨੂੰ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਇਹ ਨਿਯਮ ਸਾਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾਉਂਦੇ ਹਨ, ਪਰ ਕੀ ਉਹ ਅਸਲ ਵਿੱਚ ਅਜਿਹਾ ਕਰਦੇ ਹਨ? ਜਾਂ ਕੀ ਉਹ ਸਿਰਫ਼ ਸੁਰੱਖਿਆ ਦਾ ਇੱਕ ਝੂਠਾ ਅਹਿਸਾਸ ਪੈਦਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਅਸਲ ਜੋਖਮ ਡਾਰਕ ਵੈੱਬ ਦੇ ਅਨਿਯੰਤ੍ਰਿਤ ਹਿੱਸਿਆਂ ਵਿੱਚ ਚਲੇ ਜਾਂਦੇ ਹਨ? ਸਾਨੂੰ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ ਲਿਖਿਆ ਗਿਆ ਕਾਨੂੰਨ ਉਸ ਤਕਨਾਲੋਜੀ ਨਾਲ ਤਾਲਮੇਲ ਰੱਖ ਸਕਦਾ ਹੈ ਜੋ ਹਰ ਮਹੀਨੇ ਬਦਲਦੀ ਹੈ। United Nations AI Advisory Body ਇਨ੍ਹਾਂ ਗਲੋਬਲ ਪਾੜਿਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ, ਪਰ ਸਹਿਮਤੀ ਲੱਭਣਾ ਔਖਾ ਹੈ।
ਪਾਲਣਾ ਦਾ ਤਕਨੀਕੀ ਢਾਂਚਾ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨਿਯਮ ਬਹੁਤ ਖਾਸ ਹੋ ਜਾਂਦੇ ਹਨ। ਅਮਰੀਕੀ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜੋਖਮ ਲਈ ਇੱਕ ਪ੍ਰੌਕਸੀ ਵਜੋਂ ਕੰਪਿਊਟ ਪਾਵਰ ‘ਤੇ ਕੇਂਦ੍ਰਤ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ 10^26 ਫਲੋਟਿੰਗ ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨਾਂ ਤੋਂ ਵੱਧ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਲਾਜ਼ਮੀ ਰਿਪੋਰਟਿੰਗ ਲੋੜ ਨੂੰ ਚਾਲੂ ਕਰਦਾ ਹੈ। ਇਹ ਕੰਪਿਊਟ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਹੈ, ਪਰ ਜਿਵੇਂ-ਜਿਵੇਂ ਹਾਰਡਵੇਅਰ ਬਿਹਤਰ ਹੁੰਦਾ ਹੈ, ਹੋਰ ਮਾਡਲ ਇਸ ਸੀਮਾ ਤੱਕ ਪਹੁੰਚ ਜਾਣਗੇ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਬਾਰੇ ਵੀ ਚਿੰਤਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਤੁਸੀਂ ਹੁਣ ਸਿਰਫ਼ ਇੰਟਰਨੈਟ ਨੂੰ ਸਕ੍ਰੈਪ ਨਹੀਂ ਕਰ ਸਕਦੇ ਅਤੇ ਸਭ ਤੋਂ ਵਧੀਆ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਤੁਹਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਅਧਿਕਾਰ ਹੈ। ਰੈੱਡ-ਟੀਮਿੰਗ ਲਈ ਵੀ ਨਵੇਂ ਮਾਪਦੰਡ ਹਨ। ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਤੁਸੀਂ ਆਪਣੇ AI ਨੂੰ ਤੋੜਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ ਲੋਕਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰਦੇ ਹੋ। ਇਹਨਾਂ ਟੈਸਟਾਂ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਹੁਣ ਦਸਤਾਵੇਜ਼ੀ ਰੂਪ ਵਿੱਚ ਦਰਜ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਕੁਝ ਅਧਿਕਾਰ ਖੇਤਰਾਂ ਵਿੱਚ ਰੈਗੂਲੇਟਰਾਂ ਨਾਲ ਸਾਂਝਾ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। API ਪ੍ਰਦਾਤਾਵਾਂ ਨੂੰ ਵੀ ਨਵੀਆਂ ਸੀਮਾਵਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਰਿਹਾ ਹੈ। ਉਨ੍ਹਾਂ ਨੂੰ ਗਲਤ ਹੱਥਾਂ ਵਿੱਚ ਜਾਣ ਤੋਂ ਰੋਕਣ ਲਈ ਆਪਣੇ ਗਾਹਕਾਂ ਦੀ ਪਛਾਣ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਮਾਡਲਾਂ ਦੀ ਸਥਾਨਕ ਸਟੋਰੇਜ ਚਿੰਤਾ ਦਾ ਇੱਕ ਹੋਰ ਖੇਤਰ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਲੈਪਟਾਪ ‘ਤੇ ਚੱਲਣ ਲਈ ਕਾਫ਼ੀ ਛੋਟਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਨੂੰ ਕਿਵੇਂ ਲਾਗੂ ਕਰਦੇ ਹੋ? ਜਵਾਬ ਅਕਸਰ ਹਾਰਡਵੇਅਰ-ਪੱਧਰ ਦੀਆਂ ਪਾਬੰਦੀਆਂ ਜਾਂ AI-ਉਤਪੰਨ ਸਮੱਗਰੀ ਦੀ ਲਾਜ਼ਮੀ ਵਾਟਰਮਾਰਕਿੰਗ ਦੁਆਰਾ ਹੁੰਦਾ ਹੈ।
- ਸਾਰੇ ਮਾਡਲ ਸਿਖਲਾਈ ਸੈਸ਼ਨਾਂ ਲਈ ਮਜ਼ਬੂਤ ਲੌਗਿੰਗ ਲਾਗੂ ਕਰਨਾ।
- ਟੈਕਸਟ ਅਤੇ ਚਿੱਤਰ ਆਉਟਪੁੱਟ ਨੂੰ ਵਾਟਰਮਾਰਕ ਕਰਨ ਲਈ ਸਵੈਚਲਿਤ ਟੂਲ ਵਿਕਸਿਤ ਕਰਨਾ।
- ਤੀਜੀ-ਧਿਰ ਮਾਡਲ ਆਡਿਟ ਲਈ ਸੁਰੱਖਿਅਤ ਵਾਤਾਵਰਣ ਸਥਾਪਤ ਕਰਨਾ।
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ API ਰੇਟ ਸੀਮਾਵਾਂ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਨਾ ਕਰਨ।
- ਸਾਰੇ ਮਨੁੱਖੀ-ਇਨ-ਦ-ਲੂਪ ਦਖਲਅੰਦਾਜ਼ੀ ਦੇ ਵਿਸਤ੍ਰਿਤ ਰਿਕਾਰਡ ਰੱਖਣਾ।
ਇਹ ਲੋੜਾਂ ਇੱਕ ਡਿਵੈਲਪਰ ਦੇ ਵਰਕਫਲੋ ਨੂੰ ਬਦਲਦੀਆਂ ਹਨ। ਇਹ ਹੁਣ ਸਿਰਫ਼ ਸ਼ੁੱਧਤਾ ਜਾਂ ਗਤੀ ਲਈ ਅਨੁਕੂਲਿਤ ਕਰਨ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਸਿਸਟਮ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਜੋ ਸ਼ੁਰੂ ਤੋਂ ਹੀ ਆਡਿਟ ਕਰਨ ਯੋਗ ਹੋਵੇ।
ਅਧੂਰਾ ਢਾਂਚਾ
ਸਿੱਟਾ ਇਹ ਹੈ ਕਿ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਲਈ ‘ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਚੀਜ਼ਾਂ ਤੋੜੋ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਅਸੀਂ ‘ਸਾਵਧਾਨੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਹਰ ਚੀਜ਼ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰੋ’ ਦੇ ਦੌਰ ਵਿੱਚ ਜਾ ਰਹੇ ਹਾਂ। ਨਿਯਮ ਅਜੇ ਵੀ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ, ਅਤੇ ਉਹ ਸੰਪੂਰਨ ਹੋਣ ਤੋਂ ਬਹੁਤ ਦੂਰ ਹਨ। ਉਹ ਸੁਰੱਖਿਆ, ਮੁਨਾਫੇ ਅਤੇ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਵਿਚਕਾਰ ਇੱਕ ਗੜਬੜ ਵਾਲਾ ਸਮਝੌਤਾ ਹਨ। ਇੱਕ ਵੱਡਾ ਸਵਾਲ ਖੁੱਲ੍ਹਾ ਹੈ: ਕੀ ਇੱਕ ਕੇਂਦਰੀਕ੍ਰਿਤ ਕਾਨੂੰਨ ਕਦੇ ਵੀ ਇੱਕ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਤਕਨਾਲੋਜੀ ਨੂੰ ਸੱਚਮੁੱਚ ਨਿਯੰਤਰਿਤ ਕਰ ਸਕਦਾ ਹੈ? ਜਿਵੇਂ-ਜਿਵੇਂ ਓਪਨ-ਸੋਰਸ ਮਾਡਲ ਸੁਧਰਦੇ ਰਹਿੰਦੇ ਹਨ, ਜੋ ਨਿਯੰਤ੍ਰਿਤ ਹੈ ਅਤੇ ਜੋ ਸੰਭਵ ਹੈ, ਉਸ ਵਿਚਕਾਰ ਪਾੜਾ ਵਧਦਾ ਜਾਵੇਗਾ। ਇਹ ਕਹਾਣੀ ਦਾ ਅੰਤ ਨਹੀਂ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸ਼ੁਰੂਆਤ ਦਾ ਅੰਤ ਹੈ। ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ, ਪਰ ਸਿਆਹੀ ਅਜੇ ਵੀ ਗਿੱਲੀ ਹੈ। ਅਸੀਂ ਦੇਖਾਂਗੇ ਕਿ ਆਉਣ ਵਾਲੇ ਮਹੀਨਿਆਂ ਵਿੱਚ ਇਹ ਕਾਨੂੰਨ ਕਿਵੇਂ ਲਾਗੂ ਹੁੰਦੇ ਹਨ ਅਤੇ ਉਦਯੋਗ ਕਿਵੇਂ ਅਨੁਕੂਲ ਹੁੰਦਾ ਹੈ। ਇੱਕੋ ਇੱਕ ਨਿਸ਼ਚਿਤਤਾ ਇਹ ਹੈ ਕਿ ਅਸੀਂ AI ਨੂੰ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਅਤੇ ਵਰਤਦੇ ਹਾਂ, ਉਹ ਕਦੇ ਵੀ ਪਹਿਲਾਂ ਵਰਗਾ ਨਹੀਂ ਰਹੇਗਾ।
编者按:我们创建本网站,旨在作为一个多语言人工智能新闻和指南中心,为那些并非电脑极客,但仍然希望了解人工智能、更有信心地使用它并关注正在到来的未来的人群服务。
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।